
Bienvenido al Prompt, la newsletter sobre Inteligencia Artificial escrita con un poco de Inteligencia Natural
”Hola prompters! Aquà estamos otra semana mÔs: 26 de Febrero de 2026. Newsletter #22.
Una vez mĆ”s, semana repleta de noticias: Perplexity ha lanzado un sistema agĆ©ntico que orquesta varios modelos frontier para ejecutar flujos de trabajo completos de forma autónoma, Google ha sacado Gemini 3.1 Pro y los nĆŗmeros son brutales, el PentĆ”gono le ha dado a Anthropic hasta el viernes para aceptar uso militar sin restricciones (sĆ, has leĆdo bien), Anthropic dice que ha pillado a labs chinos robĆ”ndoles las capacidades de Claude a escala industrial, y en el mundo del hardware la guerra de la velocidad se ha puesto muy interesante con un LLM de difusión que genera mĆ”s de 1.000 tokens por segundo y OpenAI usando chips del tamaƱo de un folio para que Codex sea prĆ”cticamente instantĆ”neo. Y noticia de Ćŗltima hora: Ā”Gemini acaba de sacar Nano Banana 2! Traeremos mĆ”s noticias de este modelo esperado la próxima semana š
Semana densa. Hoy vamos con noticias mÔs cortas y directas, que a veces menos es mÔs. Cinco noticias, la historia de un chip que desafió a toda la industria, y la herramienta de la semana que tienes al alcance de tu mano.
En la newsletter de hoyā¦
>>> Cinco noticias de la semana:
š„ļø Perplexity Computer: Un trabajador digital agĆ©ntico que orquesta los mejores modelos segĆŗn la tarea
š Gemini 3.1 Pro: ĀæEl mejor modelo hasta la fecha,?
šļø El PentĆ”gono vs Anthropic: UltimĆ”tum para aceptar uso militar sin restricciones
šµļø Espionaje de modelos: Anthropic pilla a DeepSeek, Moonshot y MiniMax robando capacidades de Claude
ā” La carrera de la velocidad: Mercury 2 y GPT-5.3 Codex Spark ā cuando los tokens vuelan
AdemĆ”s, en HistorIAs de la IA hoy no hablaremos de una persona, sino de una empresa que se ha hecho sonar con el nuevo hito de GPT-5.3 Codex Spark: la historia de Cerebras, el chip mĆ”s grande del mundo que decidió que las GPUs de NVIDIA no eran la Ćŗnica forma de hacer IA. Y en la Herramienta de la semana: Gemini Canvas, el editor visual que convierte ideas en apps funcionales en minutos.En la newsletter de hoyā¦
Y la canción de la semana nos va a resumir las noticias al ritmo de flamenco, que hace tiempo que no tocÔbamos ese palo:
¿Qué ha pasado esta semana en el mundo de la IA?
Perplexity ha lanzado algo difĆcil de encasillar. No es un chatbot, no es un buscador mejorado, es lo que llaman un trabajador digital de propósito general: un sistema agĆ©ntico que describe resultados, los divide en tareas y subtareas, crea subagentes para ejecutarlas y los coordina de forma asĆncrona (Āæos suena OpenClaw? pues algo asĆ). Puedes pedirle algo complejo, irte a hacer otra cosa, y volver cuando estĆ© listo. O lanzar docenas en paralelo. Cada subagente opera en un entorno aislado con acceso a un sistema de archivos real, un navegador real e integraciones con herramientas reales.
Lo tĆ©cnicamente interesante es la orquestación multi-modelo: Perplexity Computer usa Opus 4.6 como motor de razonamiento central, Gemini para investigación profunda, Nano Banana para imĆ”genes, Veo 3.1 para vĆdeo, Grok para tareas ligeras que necesitan velocidad, y ChatGPT 5.2 para contexto largo y bĆŗsqueda amplia. La idea detrĆ”s es que los modelos frontier se estĆ”n especializando ā ninguno es el mejor en todo ā asĆ que el sistema mĆ”s potente no es el modelo mĆ”s capaz, sino el que sabe cuĆ”ndo usar cuĆ”l.

Eso sĆ, no creas que vas a poner tener el poder de Opus 4.6, Gemini Deep Think, Veo 3.1 Nano Banana y Grok gratis con ellos. De momenot, si quieres usar Computer, tendrĆ”s que ser subscriptor de su plan Perplexity Max de 200$/mes.
Uno de los modelos que Perplexity Computer usa para investigación profunda es de Gemini. Que esta semana ha sacado su mejor versión hasta la fecha.
Google ha lanzado Gemini 3.1 Pro y como cada vez que sacan modelo, viene con los mejores resulados en (casi) todos los benchmarks.

Un 77,1% en ARC-AGI-2 (recordad que hace un aƱo los mejores modelos sacaban un 5%), un 44,4% en Humanity's Last Exam sin herramientas (51,4% con bĆŗsqueda y código) o un ELO de 2887 en LiveCodeBench Pro. A estas alturas, estos nĆŗmeros no dicen mucho mĆ”s que que por mĆ©tricas, es el mejor modelo del mundo ahora mismo en prĆ”cticamente todas las categorĆas.
Gemini 3.1 Pro viene con 1 millón de tokens de contexto, estÔ en preview pero ya lo puedes utilizar, incuso en Antigravity. Lo que llama la atención es el foco prÔctico: mejor seguimiento de instrucciones, mejor uso de herramientas, y especialmente el rendimiento en tareas agénticas de largo alcance como BrowseComp (85,9%) o MCP Atlas (69,2%). Google no solo estÔ compitiendo en el benchmark de turno sino que estÔ apuntando al mismo espacio que Anthropic con Claude Code y OpenAI con Codex.

Curiosamente han dado mucha importancia a lo bien que el modelo es capaz de hacer animaciones SVG frente a su antecesor. Aunque esto es una captura de pantalla puedes veer las animaciones en la web que he enlazado al tĆtulo. Puede que pienses que es muy nicho SVGs con modelos asĆ, pero es una muy buena opción para tener una animación hecha en segundos para la presentación de powerpoint de turno
Y mientras los labs compiten en benchmarks, el gobierno de Estados Unidos ha decidido que tiene otras prioridades.šļø El PentĆ”gono le da un ultimĆ”tum a Anthropic: o quitas las salvaguardas que impiden usar la IA para el uso de armas o cuidado que usan ellos la ley.
El Departamento de Defensa de Estados Unidos ha dado a Anthropic hasta el viernes 27 de febrero (mañana, literalmente) para aceptar el uso militar sin restricciones de Claude. Hasta ahora, el PentÔgono no tiene la capacidad de eliminar las salvaguardas qeu Anthropic pone a sus modelos para evitar estos usos y han sido claros en las últimas reuniones con Antrhopic: Si no acepta, amenazan con invocar la Defense Production Act, una ley de la época de la Guerra de Corea que permite al gobierno obligar a empresas a producir para la defensa nacional. Dario Amodei se reunió con Pete Hegseth, secretario de Defensa. Anthropic ha dicho que no va a aceptar vigilancia de ciudadanos estadounidenses ni armas totalmente autónomas.
El acuerdo de Anthropic con el Departamento de Defensa no es Ćŗnico. Hace unos meses se firmaron acuerdos individuales de unos 200 millones de dólares con Anthropic, xAI, OpenAI y Google Deepmind por el que a ambio de la inversión, pretendĆan poder utilizar sus modelos para desarrollos en defensa. De momento solo ha trascendido esta tensión con Antrhropic, por lo que o bien el resto de compaƱĆas han proporcionado modelos mĆ”s permisivos, o serĆ”n las siguientes en ser ārequeridasā.
Y mientras Anthropic lidia con el PentÔgono por un lado, por el otro ha publicado algo que parece sacado de una novela de espionaje. Dicen que han identificado campañas de destilación a escala industrial por parte de tres labs chinos:
DeepSeek: mƔs de 150.000 intercambios, orientados a extraer razonamiento, entrenamiento de modelos de recompensa y alternativas para evadir censura.
Moonshot AI: mƔs de 3,4 millones de intercambios centrados en uso agƩntico y herramientas.
MiniMax: mƔs de 13 millones de intercambios, pillados a mitad de campaƱa, antes de que lanzaran su modelo.
En total, unos 24.000 cuentas fraudulentas y mĆ”s de 16 millones de intercambios. Anthropic se queja de que usaan Claude masivamente para entrenar sus propios modelos, extrayendo las capacidades sin pagar por el entrenamiento. Pero la estrategia que claramente tenĆan de seƱalar a los laboratorois chinos con el mensaje "sabemos lo que estĆ”is haciendo, y tenemos los datos para demostrarlo" se les ha venido un poco abajo con la reacción de la mayorĆa del pĆŗblico. Y es que Anthropic mismo ha estado envuelta en varios escĆ”ndalos de utilización de datos con copyright de Internet para entrenar sus propios modelos, y eso no les parecĆa tan grave. AsĆ que el veredicto del pĆŗblico es que quien roba a un ladrónā¦
Y si todo esto os parece mucho drama geopolĆtico para un jueves: tambiĆ©n hay noticias puramente tĆ©cnicas esta semana. Del tipo que te recuerda que la carrera de la IA no es solo de quiĆ©n piensa mejor, sino de quiĆ©n responde mĆ”s rĆ”pido.
Inception Labs ha lanzado Mercury 2, un LLM basado en difusión ā no genera tokens uno a uno como los modelos tradicionales, sino que refina mĆŗltiples tokens en paralelo como las imĆ”genes que genera ChatGPT por eemplo. El resultado: 1.009 tokens por segundo en GPUs NVIDIA Blackwell. MĆ”s de 5 veces mĆ”s rĆ”pido que la generación autoregresiva estĆ”ndar. Y a un precio que compite: $0,25 por millón de tokens de entrada. Para agentes que encadenan decenas de llamadas, la diferencia entre 200 y 1.000 tokens/segundo no es solo velocidad ā es la diferencia entre un flujo de trabajo viable y uno que no lo es.

Desde luego la velocidad, comparada con otros modelos conocido rĆ”pido, es asombrosa. Y aunque no sean el mejor modelo de razonamiento profundo, sĆ que tienen su utilida e importancia: autocompletado, traducción en tiempo real, bĆŗsquedaā¦
Pero Inception Labs no son los Ćŗnicos que han sacado un modelo que reponde tan rĆ”pido, porque apenas hace unos dĆas OpenAI lanbzaba GPT-5.3-Codex-Spark, una variante ligera de Codex optimizada para programación en tiempo real. Lo interesante: corre sobre el Wafer Scale Engine 3 de Cerebras, un chip del tamaƱo de una oblea de silicio que no se parece a nada que NVIDIA fabrique. TambiĆ©n supera los 1.000 tokens por segundo. OpenAI lo describe como su primer modelo diseƱado para que "Codex se sienta instantĆ”neo mientras iteras". Y el acuerdo comercial de fondo es enorme: Cerebras firmó un acuerdo de mĆ”s de 10.000 millones de dólares con OpenAI para suministrar 750 megavatios de potencia de computación hasta 2028.
La historia aquà es que la inteligencia ya no es el único cuello de botella. Puedes tener el modelo mÔs listo del mundo, pero si tarda 30 segundos en responder, (casi) nadie lo va a usar en un bucle agéntico. La velocidad de inferencia se estÔ convirtiendo en el campo de batalla.
De modelos que orquestan otros modelos, benchmarks que caen, ultimÔtums del PentÔgono y tokens que vuelan. Esta semana ha dejado claro que la carrera de la IA ya no se juega solo en los laboratorios. Y hablando de hardware que cambia las reglas: hay un chip detrÔs de parte de esta revolución de velocidad que tiene una historia que merece contarse.
HistorIAs de la IA. Hoy: š§© Cerebras
El chip mÔs grande del mundo que desafió a toda la industria
En la IA hay una verdad que se da por sentada: si quieres entrenar o ejecutar modelos a escala, usas GPUs de NVIDIA. Existen alternativas (como las TPUs de Google que han sido capaces de generar los modelos Gemini) pero para el grueso del ecosistema, la cadena es: modelo ā NVIDIA ā listo. Es el estĆ”ndar de facto, el que todos dan por hecho. Andrew Feldman no lo dio por hecho.
En 2015, Feldman y cuatro cofundadores ā Gary Lauterbach, Michael James, Sean Lie y Jean-Philippe Fricker ā crearon Cerebras en Sunnyvale, California. Los cinco venĆan de SeaMicro, una empresa que fundaron en 2007 y vendieron a AMD en 2012 por 334 millones de dólares. Ya habĆan hecho una cosa loca y les habĆa salido bien. AsĆ que decidieron hacer otra mĆ”s loca.
La idea: en vez de fabricar chips pequeƱos y conectar miles de ellos (que es lo que hace NVIDIA), Āæy si fabricas un solo chip enorme? Un chip del tamaƱo de una oblea de silicio completa (la pieza circular de la que normalmente se cortan cientos de chips individuales). Todo el mundo en la industria de semiconductores sabĆa que eso era una locura. Las obleas tienen defectos. Si un chip normal tiene un defecto, lo tiras. Pero una oblea entera siempre tiene defectos. Nadie habĆa conseguido hacer wafer-scale integration funcional a escala comercial. Bueno, pues Cerebras lo hizo.
En 2019 presentaron el WSE-1 (Wafer Scale Engine): 1,2 billones de transistores, 400.000 nĆŗcleos, en un solo chip. El chip mĆ”s grande jamĆ”s fabricado. Para que os hagĆ”is una idea del tamaƱo: un chip de NVIDIA del momento cabĆa 56 veces dentro del WSE. En 2021 llegó el WSE-2 con 2,6 billones de transistores y 850.000 nĆŗcleos. Y en 2024, el WSE-3: 4 billones de transistores, 900.000 nĆŗcleos y 125 petaflops de potencia. El Computer History Museum de Mountain View lo aƱadió a su colección permanente como un logro "de Ć©poca" en la historia de la fabricación de chips.

Comparación del tamaño del WSE-3 de Cerebras con la NVIDIA B200.
ĀæY para quĆ© sirve un chip tan grande? La respuesta tiene mucho que ver con la memoria. Una GPU de NVIDIA usa HBM (High Bandwidth Memory) ā chips de memoria apilados que se sueldan fuera del die principal. Son rĆ”pidos, pero estĆ”n fĆsicamente separados del procesador: los datos tienen que viajar por un bus para llegar a los nĆŗcleos. Ese viaje, multiplicado por miles de millones de operaciones, es el cuello de botella de la inferencia.
El WSE no tiene ese problema porque no tiene memoria externa. Toda su memoria es SRAM (Static RAM) integrada directamente en la oblea, al lado de cada nĆŗcleo. No hay bus que cruzar. El WSE-3 tiene 44 GB de SRAM on-chip con un ancho de banda de memoria de 880 terabytes por segundo ā un nĆŗmero que suena a exageración hasta que lo comparas con los ~8 TB/s de una H100. La contrapartida: la SRAM ocupa mucho mĆ”s silicio por bit que la HBM, y es por eso que el chip tiene que ser tan grande ā necesita el espacio fĆsico para meter toda esa memoria cerca del cómputo. Es casi una filosofĆa opuesta: en vez de hacer el chip pequeƱo y eficiente, hacerlo tan grande que la memoria quede a cero distancia de los nĆŗcleos. Resultado para inferencia: miles de tokens por segundo por usuario, sin los cuellos de botella del trĆ”fico de memoria.
Los nĆŗmeros hablan. En enero de 2025, Cerebras ejecutó el modelo de razonamiento DeepSeek R1 a 1.600 tokens/segundo ā 57 veces mĆ”s rĆ”pido que cualquier proveedor con GPUs. En febrero, Mistral lanzó Le Chat con 1.000 palabras por segundo de respuesta. DetrĆ”s estaba Cerebras. Meta eligió Cerebras para su nueva Llama API: 18 veces mĆ”s rĆ”pida que las soluciones GPU. Y ahora OpenAI ha firmado un acuerdo de mĆ”s de 10.000 millones de dólares para usar Cerebras en Codex Spark.
¿Va a sustituir Cerebras a NVIDIA? Probablemente no; las GPUs siguen siendo fundamentales para entrenamiento y para el grueso de la inferencia a escala. Pero Cerebras ha demostrado que hay mÔs de un camino, y que a veces la idea loca de "¿y si hacemos el chip mÔs grande del mundo?" puede no ser tan loca. TIME lo reconoció como uno de los mejores inventos de 2024. Y con 401 empleados y una valoración de 8.100 millones de dólares, la apuesta de Feldman ya no parece tan loca.
Y cerramos la newsletter con la herramienta de la semana. Esta vez: algo que puedes usar ahora mismo, gratis, y que ha mejorado muchĆsimo con la llegada de Gemini 3.1 Pro.
š La Herramienta de la semana š
Gemini Canvas: de la idea al prototipo en minutos
Gemini Canvas es el editor visual de Google dentro de Gemini, y con la llegada de Gemini 3 y 3.1 Pro se puede convertir en una herramienta que merece atención seria. La propuesta: describes lo que quieres y Canvas lo construye. Como el resto e chatbos, Āæno?. Pero este puede hacerte una app, un juego, un cuestionario interactivo, una infografĆa, una pĆ”gina web. Lo que antes requerĆa saber HTML, CSS y JavaScript, ahora requiere saber explicar lo que quieres. La idea es que use el modelo de Gemini 3 de turno, pero que no tengas que pedir cómo hacer el resutado final que quieres. No hace falta que sepas que una aplicación pintona se hace en HTML, CSS, React.. tu pide algo sencillo y Canvas lo diseƱa.
ĀæQuĆ© lo hace especial? Tres cosas. Primero, la integración con Deep Research: puedes hacer una investigación profunda sobre cualquier tema y convertir el resultado directamente en una app interactiva o una infografĆa visual, sin salir de Gemini. Segundo, la capacidad de iterar en tiempo real: no es un generador de código que te escupe un archivo. Es un editor donde ves el resultado, pides cambios, y se actualizan al instante. Y tercero, es compartible: generas un enlace y cualquier persona puede usar lo que has creado.

Usar Canvas es muy fĆ”cil. En Gemini, sólo elige la opción āCanvas" lo q abajo, y ya te diseƱarĆ” lo que le pidas. Miras este ejemplo que he hecho en 10 segundos. Un solo prompt y tienes un boceto funcional de cómo serĆa algo que has pensado o diseƱado.
Para los que escriben, Canvas tambiĆ©n funciona como asistente de redacción: genera borradores, ajusta tono, revisa secciones especĆficas. No es Notion ni Google Docs, pero para prototipar ideas rĆ”pido ā desde un quiz para tus alumnos hasta un dashboard para una presentación ā es brutalmente eficiente.
Gratuito para todos los usuarios de Gemini. Si no lo habƩis probado, este es un buen momento.
Y hasta aquĆ la entrega #22 de la Newsletter.
Semana de las que te dejan pensando en muchas direcciones a la vez. Perplexity quiere ser tu nuevo OpenClaw, Google sigue apretando con modelos que cada semana son mejores, el PentƔgono quiere que la IA no tenga frenos, Anthropic se queja de que los labs chinos le copian sin disimular, y resulta que el chip mƔs importante de la semana no es de NVIDIA. Mucho movimiento, muchos frentes abiertos.
Nos leemos la próxima semana. Y como siempre: a ver si la siguiente es mÔs tranquila. (Spoiler: ya sabéis que no.)
Recuerda que puedes puntuar el post y comentar despuĆ©s, por si quieres dar ideas, quejas, sugerencias, peticiones⦠š¤
š§ š§ š§ š§ š§ Ā”Alimento para la mente!
š§ š§ š§ Tienes que pensarlo mejor
š§ Han faltado neuronas
Y si quieres que tus amigos o familiares estĆ©n tan al dĆa de la IA como tĆŗ, Ā”puedes compartirles esta newsletter o mi blog sobre IA! Uno con contenido de actualidad, y otro con artĆculos mĆ”s elaborados, que te ayudarĆ”n a entender la IA desde otro punto de vista.
>>> Nos vemos en la siguiente entrega š¤
>>> Ā” Hasta prompto !

