Bienvenido al Prompt, la newsletter sobre Inteligencia Artificial escrita con un poco de Inteligencia Natural

”Hola prompters! Aquí estamos otra semana mÔs: 26 de Febrero de 2026. Newsletter #22.

Una vez mĆ”s, semana repleta de noticias: Perplexity ha lanzado un sistema agĆ©ntico que orquesta varios modelos frontier para ejecutar flujos de trabajo completos de forma autónoma, Google ha sacado Gemini 3.1 Pro y los nĆŗmeros son brutales, el PentĆ”gono le ha dado a Anthropic hasta el viernes para aceptar uso militar sin restricciones (sĆ­, has leĆ­do bien), Anthropic dice que ha pillado a labs chinos robĆ”ndoles las capacidades de Claude a escala industrial, y en el mundo del hardware la guerra de la velocidad se ha puesto muy interesante con un LLM de difusión que genera mĆ”s de 1.000 tokens por segundo y OpenAI usando chips del tamaƱo de un folio para que Codex sea prĆ”cticamente instantĆ”neo. Y noticia de Ćŗltima hora: Ā”Gemini acaba de sacar Nano Banana 2! Traeremos mĆ”s noticias de este modelo esperado la próxima semana šŸŒ

Semana densa. Hoy vamos con noticias mÔs cortas y directas, que a veces menos es mÔs. Cinco noticias, la historia de un chip que desafió a toda la industria, y la herramienta de la semana que tienes al alcance de tu mano.

En la newsletter de hoy…

>>> Cinco noticias de la semana:

šŸ–„ļø Perplexity Computer: Un trabajador digital agĆ©ntico que orquesta los mejores modelos segĆŗn la tarea
šŸ† Gemini 3.1 Pro: ĀæEl mejor modelo hasta la fecha,?
šŸ›ļø El PentĆ”gono vs Anthropic: UltimĆ”tum para aceptar uso militar sin restricciones
šŸ•µļø Espionaje de modelos: Anthropic pilla a DeepSeek, Moonshot y MiniMax robando capacidades de Claude
⚔ La carrera de la velocidad: Mercury 2 y GPT-5.3 Codex Spark — cuando los tokens vuelan

AdemĆ”s, en HistorIAs de la IA hoy no hablaremos de una persona, sino de una empresa que se ha hecho sonar con el nuevo hito de GPT-5.3 Codex Spark: la historia de Cerebras, el chip mĆ”s grande del mundo que decidió que las GPUs de NVIDIA no eran la Ćŗnica forma de hacer IA. Y en la Herramienta de la semana: Gemini Canvas, el editor visual que convierte ideas en apps funcionales en minutos.En la newsletter de hoy…

Y la canción de la semana nos va a resumir las noticias al ritmo de flamenco, que hace tiempo que no tocÔbamos ese palo:

¿Qué ha pasado esta semana en el mundo de la IA?

Perplexity ha lanzado algo difícil de encasillar. No es un chatbot, no es un buscador mejorado, es lo que llaman un trabajador digital de propósito general: un sistema agéntico que describe resultados, los divide en tareas y subtareas, crea subagentes para ejecutarlas y los coordina de forma asíncrona (¿os suena OpenClaw? pues algo así). Puedes pedirle algo complejo, irte a hacer otra cosa, y volver cuando esté listo. O lanzar docenas en paralelo. Cada subagente opera en un entorno aislado con acceso a un sistema de archivos real, un navegador real e integraciones con herramientas reales.

Lo tĆ©cnicamente interesante es la orquestación multi-modelo: Perplexity Computer usa Opus 4.6 como motor de razonamiento central, Gemini para investigación profunda, Nano Banana para imĆ”genes, Veo 3.1 para vĆ­deo, Grok para tareas ligeras que necesitan velocidad, y ChatGPT 5.2 para contexto largo y bĆŗsqueda amplia. La idea detrĆ”s es que los modelos frontier se estĆ”n especializando — ninguno es el mejor en todo — asĆ­ que el sistema mĆ”s potente no es el modelo mĆ”s capaz, sino el que sabe cuĆ”ndo usar cuĆ”l.

Eso sƭ, no creas que vas a poner tener el poder de Opus 4.6, Gemini Deep Think, Veo 3.1 Nano Banana y Grok gratis con ellos. De momenot, si quieres usar Computer, tendrƔs que ser subscriptor de su plan Perplexity Max de 200$/mes.

Uno de los modelos que Perplexity Computer usa para investigación profunda es de Gemini. Que esta semana ha sacado su mejor versión hasta la fecha.

Google ha lanzado Gemini 3.1 Pro y como cada vez que sacan modelo, viene con los mejores resulados en (casi) todos los benchmarks.

Un 77,1% en ARC-AGI-2 (recordad que hace un año los mejores modelos sacaban un 5%), un 44,4% en Humanity's Last Exam sin herramientas (51,4% con búsqueda y código) o un ELO de 2887 en LiveCodeBench Pro. A estas alturas, estos números no dicen mucho mÔs que que por métricas, es el mejor modelo del mundo ahora mismo en prÔcticamente todas las categorías.

Gemini 3.1 Pro viene con 1 millón de tokens de contexto, estÔ en preview pero ya lo puedes utilizar, incuso en Antigravity. Lo que llama la atención es el foco prÔctico: mejor seguimiento de instrucciones, mejor uso de herramientas, y especialmente el rendimiento en tareas agénticas de largo alcance como BrowseComp (85,9%) o MCP Atlas (69,2%). Google no solo estÔ compitiendo en el benchmark de turno sino que estÔ apuntando al mismo espacio que Anthropic con Claude Code y OpenAI con Codex.

Curiosamente han dado mucha importancia a lo bien que el modelo es capaz de hacer animaciones SVG frente a su antecesor. Aunque esto es una captura de pantalla puedes veer las animaciones en la web que he enlazado al título. Puede que pienses que es muy nicho SVGs con modelos así, pero es una muy buena opción para tener una animación hecha en segundos para la presentación de powerpoint de turno

Y mientras los labs compiten en benchmarks, el gobierno de Estados Unidos ha decidido que tiene otras prioridades.šŸ›ļø El PentĆ”gono le da un ultimĆ”tum a Anthropic: o quitas las salvaguardas que impiden usar la IA para el uso de armas o cuidado que usan ellos la ley.

El Departamento de Defensa de Estados Unidos ha dado a Anthropic hasta el viernes 27 de febrero (mañana, literalmente) para aceptar el uso militar sin restricciones de Claude. Hasta ahora, el PentÔgono no tiene la capacidad de eliminar las salvaguardas qeu Anthropic pone a sus modelos para evitar estos usos y han sido claros en las últimas reuniones con Antrhopic: Si no acepta, amenazan con invocar la Defense Production Act, una ley de la época de la Guerra de Corea que permite al gobierno obligar a empresas a producir para la defensa nacional. Dario Amodei se reunió con Pete Hegseth, secretario de Defensa. Anthropic ha dicho que no va a aceptar vigilancia de ciudadanos estadounidenses ni armas totalmente autónomas.

El acuerdo de Anthropic con el Departamento de Defensa no es Ćŗnico. Hace unos meses se firmaron acuerdos individuales de unos 200 millones de dólares con Anthropic, xAI, OpenAI y Google Deepmind por el que a ambio de la inversión, pretendĆ­an poder utilizar sus modelos para desarrollos en defensa. De momento solo ha trascendido esta tensión con Antrhropic, por lo que o bien el resto de compaƱƭas han proporcionado modelos mĆ”s permisivos, o serĆ”n las siguientes en ser ā€œrequeridasā€.

Y mientras Anthropic lidia con el PentÔgono por un lado, por el otro ha publicado algo que parece sacado de una novela de espionaje. Dicen que han identificado campañas de destilación a escala industrial por parte de tres labs chinos:

  • DeepSeek: mĆ”s de 150.000 intercambios, orientados a extraer razonamiento, entrenamiento de modelos de recompensa y alternativas para evadir censura.

  • Moonshot AI: mĆ”s de 3,4 millones de intercambios centrados en uso agĆ©ntico y herramientas.

  • MiniMax: mĆ”s de 13 millones de intercambios, pillados a mitad de campaƱa, antes de que lanzaran su modelo.

En total, unos 24.000 cuentas fraudulentas y mĆ”s de 16 millones de intercambios. Anthropic se queja de que usaan Claude masivamente para entrenar sus propios modelos, extrayendo las capacidades sin pagar por el entrenamiento. Pero la estrategia que claramente tenĆ­an de seƱalar a los laboratorois chinos con el mensaje "sabemos lo que estĆ”is haciendo, y tenemos los datos para demostrarlo" se les ha venido un poco abajo con la reacción de la mayorĆ­a del pĆŗblico. Y es que Anthropic mismo ha estado envuelta en varios escĆ”ndalos de utilización de datos con copyright de Internet para entrenar sus propios modelos, y eso no les parecĆ­a tan grave. AsĆ­ que el veredicto del pĆŗblico es que quien roba a un ladrón…

Y si todo esto os parece mucho drama geopolƭtico para un jueves: tambiƩn hay noticias puramente tƩcnicas esta semana. Del tipo que te recuerda que la carrera de la IA no es solo de quiƩn piensa mejor, sino de quiƩn responde mƔs rƔpido.

Inception Labs ha lanzado Mercury 2, un LLM basado en difusión — no genera tokens uno a uno como los modelos tradicionales, sino que refina mĆŗltiples tokens en paralelo como las imĆ”genes que genera ChatGPT por eemplo. El resultado: 1.009 tokens por segundo en GPUs NVIDIA Blackwell. MĆ”s de 5 veces mĆ”s rĆ”pido que la generación autoregresiva estĆ”ndar. Y a un precio que compite: $0,25 por millón de tokens de entrada. Para agentes que encadenan decenas de llamadas, la diferencia entre 200 y 1.000 tokens/segundo no es solo velocidad — es la diferencia entre un flujo de trabajo viable y uno que no lo es.

Desde luego la velocidad, comparada con otros modelos conocido rĆ”pido, es asombrosa. Y aunque no sean el mejor modelo de razonamiento profundo, sĆ­ que tienen su utilida e importancia: autocompletado, traducción en tiempo real, bĆŗsqueda…

Pero Inception Labs no son los únicos que han sacado un modelo que reponde tan rÔpido, porque apenas hace unos días OpenAI lanbzaba GPT-5.3-Codex-Spark, una variante ligera de Codex optimizada para programación en tiempo real. Lo interesante: corre sobre el Wafer Scale Engine 3 de Cerebras, un chip del tamaño de una oblea de silicio que no se parece a nada que NVIDIA fabrique. También supera los 1.000 tokens por segundo. OpenAI lo describe como su primer modelo diseñado para que "Codex se sienta instantÔneo mientras iteras". Y el acuerdo comercial de fondo es enorme: Cerebras firmó un acuerdo de mÔs de 10.000 millones de dólares con OpenAI para suministrar 750 megavatios de potencia de computación hasta 2028.

La historia aquí es que la inteligencia ya no es el único cuello de botella. Puedes tener el modelo mÔs listo del mundo, pero si tarda 30 segundos en responder, (casi) nadie lo va a usar en un bucle agéntico. La velocidad de inferencia se estÔ convirtiendo en el campo de batalla.

De modelos que orquestan otros modelos, benchmarks que caen, ultimÔtums del PentÔgono y tokens que vuelan. Esta semana ha dejado claro que la carrera de la IA ya no se juega solo en los laboratorios. Y hablando de hardware que cambia las reglas: hay un chip detrÔs de parte de esta revolución de velocidad que tiene una historia que merece contarse.

En la IA hay una verdad que se da por sentada: si quieres entrenar o ejecutar modelos a escala, usas GPUs de NVIDIA. Existen alternativas (como las TPUs de Google que han sido capaces de generar los modelos Gemini) pero para el grueso del ecosistema, la cadena es: modelo → NVIDIA → listo. Es el estĆ”ndar de facto, el que todos dan por hecho. Andrew Feldman no lo dio por hecho.

En 2015, Feldman y cuatro cofundadores — Gary Lauterbach, Michael James, Sean Lie y Jean-Philippe Fricker — crearon Cerebras en Sunnyvale, California. Los cinco venĆ­an de SeaMicro, una empresa que fundaron en 2007 y vendieron a AMD en 2012 por 334 millones de dólares. Ya habĆ­an hecho una cosa loca y les habĆ­a salido bien. AsĆ­ que decidieron hacer otra mĆ”s loca.

La idea: en vez de fabricar chips pequeños y conectar miles de ellos (que es lo que hace NVIDIA), ¿y si fabricas un solo chip enorme? Un chip del tamaño de una oblea de silicio completa (la pieza circular de la que normalmente se cortan cientos de chips individuales). Todo el mundo en la industria de semiconductores sabía que eso era una locura. Las obleas tienen defectos. Si un chip normal tiene un defecto, lo tiras. Pero una oblea entera siempre tiene defectos. Nadie había conseguido hacer wafer-scale integration funcional a escala comercial. Bueno, pues Cerebras lo hizo.

En 2019 presentaron el WSE-1 (Wafer Scale Engine): 1,2 billones de transistores, 400.000 núcleos, en un solo chip. El chip mÔs grande jamÔs fabricado. Para que os hagÔis una idea del tamaño: un chip de NVIDIA del momento cabía 56 veces dentro del WSE. En 2021 llegó el WSE-2 con 2,6 billones de transistores y 850.000 núcleos. Y en 2024, el WSE-3: 4 billones de transistores, 900.000 núcleos y 125 petaflops de potencia. El Computer History Museum de Mountain View lo añadió a su colección permanente como un logro "de época" en la historia de la fabricación de chips.

Comparación del tamaño del WSE-3 de Cerebras con la NVIDIA B200.

ĀæY para quĆ© sirve un chip tan grande? La respuesta tiene mucho que ver con la memoria. Una GPU de NVIDIA usa HBM (High Bandwidth Memory) — chips de memoria apilados que se sueldan fuera del die principal. Son rĆ”pidos, pero estĆ”n fĆ­sicamente separados del procesador: los datos tienen que viajar por un bus para llegar a los nĆŗcleos. Ese viaje, multiplicado por miles de millones de operaciones, es el cuello de botella de la inferencia.

El WSE no tiene ese problema porque no tiene memoria externa. Toda su memoria es SRAM (Static RAM) integrada directamente en la oblea, al lado de cada nĆŗcleo. No hay bus que cruzar. El WSE-3 tiene 44 GB de SRAM on-chip con un ancho de banda de memoria de 880 terabytes por segundo — un nĆŗmero que suena a exageración hasta que lo comparas con los ~8 TB/s de una H100. La contrapartida: la SRAM ocupa mucho mĆ”s silicio por bit que la HBM, y es por eso que el chip tiene que ser tan grande — necesita el espacio fĆ­sico para meter toda esa memoria cerca del cómputo. Es casi una filosofĆ­a opuesta: en vez de hacer el chip pequeƱo y eficiente, hacerlo tan grande que la memoria quede a cero distancia de los nĆŗcleos. Resultado para inferencia: miles de tokens por segundo por usuario, sin los cuellos de botella del trĆ”fico de memoria.

Los nĆŗmeros hablan. En enero de 2025, Cerebras ejecutó el modelo de razonamiento DeepSeek R1 a 1.600 tokens/segundo — 57 veces mĆ”s rĆ”pido que cualquier proveedor con GPUs. En febrero, Mistral lanzó Le Chat con 1.000 palabras por segundo de respuesta. DetrĆ”s estaba Cerebras. Meta eligió Cerebras para su nueva Llama API: 18 veces mĆ”s rĆ”pida que las soluciones GPU. Y ahora OpenAI ha firmado un acuerdo de mĆ”s de 10.000 millones de dólares para usar Cerebras en Codex Spark.

¿Va a sustituir Cerebras a NVIDIA? Probablemente no; las GPUs siguen siendo fundamentales para entrenamiento y para el grueso de la inferencia a escala. Pero Cerebras ha demostrado que hay mÔs de un camino, y que a veces la idea loca de "¿y si hacemos el chip mÔs grande del mundo?" puede no ser tan loca. TIME lo reconoció como uno de los mejores inventos de 2024. Y con 401 empleados y una valoración de 8.100 millones de dólares, la apuesta de Feldman ya no parece tan loca.

Y cerramos la newsletter con la herramienta de la semana. Esta vez: algo que puedes usar ahora mismo, gratis, y que ha mejorado muchĆ­simo con la llegada de Gemini 3.1 Pro.

šŸ›  La Herramienta de la semana šŸ› 
Gemini Canvas: de la idea al prototipo en minutos

Gemini Canvas es el editor visual de Google dentro de Gemini, y con la llegada de Gemini 3 y 3.1 Pro se puede convertir en una herramienta que merece atención seria. La propuesta: describes lo que quieres y Canvas lo construye. Como el resto e chatbos, ¿no?. Pero este puede hacerte una app, un juego, un cuestionario interactivo, una infografía, una pÔgina web. Lo que antes requería saber HTML, CSS y JavaScript, ahora requiere saber explicar lo que quieres. La idea es que use el modelo de Gemini 3 de turno, pero que no tengas que pedir cómo hacer el resutado final que quieres. No hace falta que sepas que una aplicación pintona se hace en HTML, CSS, React.. tu pide algo sencillo y Canvas lo diseña.

¿Qué lo hace especial? Tres cosas. Primero, la integración con Deep Research: puedes hacer una investigación profunda sobre cualquier tema y convertir el resultado directamente en una app interactiva o una infografía visual, sin salir de Gemini. Segundo, la capacidad de iterar en tiempo real: no es un generador de código que te escupe un archivo. Es un editor donde ves el resultado, pides cambios, y se actualizan al instante. Y tercero, es compartible: generas un enlace y cualquier persona puede usar lo que has creado.

Usar Canvas es muy fĆ”cil. En Gemini, sólo elige la opción ā€œCanvas" lo q abajo, y ya te diseƱarĆ” lo que le pidas. Miras este ejemplo que he hecho en 10 segundos. Un solo prompt y tienes un boceto funcional de cómo serĆ­a algo que has pensado o diseƱado.

Para los que escriben, Canvas tambiĆ©n funciona como asistente de redacción: genera borradores, ajusta tono, revisa secciones especĆ­ficas. No es Notion ni Google Docs, pero para prototipar ideas rĆ”pido — desde un quiz para tus alumnos hasta un dashboard para una presentación — es brutalmente eficiente.

Gratuito para todos los usuarios de Gemini. Si no lo habƩis probado, este es un buen momento.

Y hasta aquĆ­ la entrega #22 de la Newsletter.

Semana de las que te dejan pensando en muchas direcciones a la vez. Perplexity quiere ser tu nuevo OpenClaw, Google sigue apretando con modelos que cada semana son mejores, el PentƔgono quiere que la IA no tenga frenos, Anthropic se queja de que los labs chinos le copian sin disimular, y resulta que el chip mƔs importante de la semana no es de NVIDIA. Mucho movimiento, muchos frentes abiertos.

Nos leemos la próxima semana. Y como siempre: a ver si la siguiente es mÔs tranquila. (Spoiler: ya sabéis que no.)

Recuerda que puedes puntuar el post y comentar despuĆ©s, por si quieres dar ideas, quejas, sugerencias, peticiones… šŸ¤“

🧠 🧠 🧠 🧠 🧠 ”Alimento para la mente!
🧠 🧠 🧠 Tienes que pensarlo mejor
🧠 Han faltado neuronas

Y si quieres que tus amigos o familiares estén tan al día de la IA como tú, ”puedes compartirles esta newsletter o mi blog sobre IA! Uno con contenido de actualidad, y otro con artículos mÔs elaborados, que te ayudarÔn a entender la IA desde otro punto de vista.

ā

>>> Nos vemos en la siguiente entrega šŸ¤

>>> Ā” Hasta prompto !

Carlos Velasco | >>> El Prompt

>>> TambiƩn puedes compartir la newsletter con tus seres queridos con este link.
>>> O aƱadirla a tu RSS feed con este link

ĀæAlgo que decir?

Avatar

or to participate

Posts Recomendados