
Bienvenido al Prompt, la newsletter sobre Inteligencia Artificial escrita con un poco de Inteligencia Natural
ÂĄHola prompters! AquĂ estamos de vuelta: 19 de Marzo de 2026. Newsletter nĂşmero #24 ya.
Esta semana compensamos, porque las noticias se han acumulado y hay mucho que contar. La GTC de NVIDIA ha sido un no parar de anuncios, Mistral ha sacado de la manga una plataforma de entrenamiento para empresas, OpenAI parece estar replanteĂĄndose por dĂłnde va su futuro, Yann LeCun ha levantado mĂĄs de mil millones para su nueva startup, Anthropic ha lanzado una forma de controlar tu ordenador desde el mĂłvil, y un tĂo ha salvado a su perro del cĂĄncer usando IA. SĂ, todo en dos semanas.
Hoy traemos mĂĄs noticias de lo habitual y mĂĄs cortas, sin secciĂłn de HistorIAs de la IA, pero con la Herramienta de la Semana que prometimos en la N23: Gamma. Que encima ha anunciado una nueva funcionalidad esta misma semana.
En la newsletter de hoyâŚ
>>> Tres Seis noticias de la semana:
đ˘ NVIDIA GTC 2026: Vera Rubin, NemoClaw, Nemotron Coalition y la apuesta total por la inferencia
đľ Mistral Forge: entrenar modelos con tus propios datos (y de paso, Small 4 y Leanstral)
đ OpenAI cambia de hoja de ruta: menos distracciones, mĂĄs cĂłdigo
đ§Ş Yann LeCun levanta 1.030 millones para AMI Labs y sus "modelos del mundo"
đą Anthropic Dispatch: controla tu ordenador desde el mĂłvil con Claude
đ Un perro salvado del cĂĄncer gracias a AlphaFold y la IA
>>> đ Herramienta de la semana đ : Gamma.app
La prometimos en la entrega anterior, asĂ que aquĂ estĂĄ por fin: Gamma, la app que convierte un prompt en una presentaciĂłn completa en menos de un minuto. Sin PowerPoint, sin plantillas, sin sufrimiento. Y el timing no podĂa ser mejor: precisamente esta semana han lanzado Gamma Imagine, su nueva funcionalidad de diseĂąo nativo con IA. Os cuento al final.
Y cĂłmo no, la canciĂłn de la semana la tenĂŠis aquĂ:
ÂżQuĂŠ ha pasado esta semana en el mundo de la IA?
E
Esta semana ha sido la GPU Technology Conference (GTC) que organiza NVIDIA cada aĂąo. Como cada aĂąo, Jensen Huang saliĂł al escenario del SAP Center y durante mĂĄs de dos horas lanzĂł anuncio tras anuncio. Si prefieres verte un vĂdeo de dos horas con la presentaciĂłn, aquĂ tienes el enlace, pero si no, vamos a intentar resumir lo importante sin que esto se convierta en un libro.
Lo grande: Vera Rubin. Es la nueva plataforma de computaciĂłn de NVIDIA, una bestia compuesta por siete chips, cinco sistemas a escala de rack y un supercomputador.

No es solo una GPU nueva, es un sistema completo: CPU Vera, GPU Rubin, almacenamiento BlueField-4 STX, todo integrado verticalmente. Y lo que viene despuĂŠs ya tiene nombre: Feynman, con una nueva CPU llamada Rosa (por Rosalind Franklin). NVIDIA ya estĂĄ diseĂąando dos generaciones por delante.
Lo que va a dar que hablar: Jensen dijo que ve "al menos 1 billĂłn de dĂłlares en ingresos de 2025 a 2027". Y presentĂł un grĂĄfico que, segĂşn ĂŠl, todos los CEOs deberĂan estudiar: lo Ăşnico que importa es tokens por vatio. MĂĄs tokens por vatio = mĂĄs ingresos.

Vera Rubin produce 5 veces mĂĄs ingresos por gigavatio que Blackwell.
Lo agĂŠntico: NemoClaw. Jensen llamĂł a OpenClaw "el proyecto open source mĂĄs popular de la historia de la humanidad" y dijo que todas las empresas del mundo necesitan una estrategia de OpenClaw. NemoClaw es la capa de seguridad que NVIDIA pone encima: un stack open source que combina control de polĂticas, guardrails de red y enrutamiento de privacidad para que los agentes autĂłnomos no hagan cosas que no deberĂan.

Peter Steinberger, el creador de OpenClaw, estaba en la GTC y la gente hacĂa cola para hablar con ĂŠl.
Lo abierto: Nemotron Coalition. Una alianza con Mistral, Cursor, Perplexity, Black Forest Labs y otros para construir modelos frontier abiertos. Seis familias de modelos: Nemotron (lenguaje y razonamiento), Cosmos (mundo y visiĂłn), Isaac GR00T (robĂłtica), Alpaymayo (conducciĂłn autĂłnoma), BioNeMo (biologĂa) y Earth-2 (clima).
Y para cerrar, el DGX Station (el primer supercomputador de escritorio) ya se estĂĄ entregando. El primero lo recibiĂł Andrej Karpathy. 748 GB de memoria coherente, hasta 20 petaflops, y la posibilidad de ejecutar modelos de hasta un billĂłn de parĂĄmetros desde tu mesa.
Y antes de irse del escenario, Jensen tuvo tiempo para una cosa mĂĄs: presentĂł a Olaf. El muĂąeco de nieve de Frozen apareciĂł caminando, hablando e interactuando con ĂŠl en directo, como resultado de la colaboraciĂłn entre NVIDIA, Disney Research y DeepMind. La tecnologĂa detrĂĄs es Newton, el motor de fĂsica open source de NVIDIA, que permite dar vida fĂsica a personajes animados con movimiento real.

Olaf tendrĂĄ su gran debut el 29 de marzo en la inauguraciĂłn de World of Frozen en Disneyland ParĂs. Es una noticia de robĂłtica envuelta en papel de regalo Disney, pero deja claro hasta dĂłnde ha llegado la simulaciĂłn fĂsica con IA.
La GTC dejĂł claro una cosa: NVIDIA ya no vende GPUs. Vende la infraestructura completa de la economĂa de la IA, desde el escritorio hasta el espacio (sĂ, literalmente: anunciaron que van a poner Vera Rubin en Ăłrbita).
Y hablando de empresas que quieren darte las herramientas para construir tu propia IA, Mistral ha tenido una semana muy productiva.
đľ Mistral Forge: entrena tu propio modelo frontier con tus datos
Novedades de los franceses. Mistral ha anunciado Forge, una plataforma para que las empresas puedan entrenar modelos frontier con sus propios datos. La idea es sencilla: los modelos de IA genĂŠricos estĂĄn entrenados con datos pĂşblicos, pero las empresas operan con conocimiento interno (manuales, cĂłdigo propietario, normativas, procesos). Forge permite que ese conocimiento se integre directamente en el modelo.

Forge soporta preentrenamiento, postentrenamiento y aprendizaje por refuerzo, tanto con arquitecturas densas como Mixture of Experts. Y lo mĂĄs llamativo: estĂĄ pensado para que los propios agentes de IA (como Mistral Vibe) puedan usarlo, no solo humanos. Un agente puede lanzar un fine-tuning, buscar hiperparĂĄmetros Ăłptimos, generar datos sintĂŠticos y monitorizar mĂŠtricas de forma autĂłnoma. ASML, la Agencia Espacial Europea, Ericsson y Samsung ya estĂĄn entre los primeros usuarios.
Y de paso, Mistral tambiĂŠn ha sacado Small 4, su nuevo modelo estrella: 119B parĂĄmetros totales pero solo 6B activos por token (Mixture of Experts con 128 expertos, 4 activos por token). Unifica lo que antes eran tres modelos separados: Magistral (razonamiento), Pixtral (multimodal) y Devstral (cĂłdigo agĂŠntico). Contexto de 256K tokens, multimodal nativo, y un parĂĄmetro de "esfuerzo de razonamiento" que puedes configurar segĂşn la tarea. Open source con Apache 2.0 y miembro fundador de la Nemotron Coalition de NVIDIA. Los benchmarks son competitivos contra GPT-OSS 120B con respuestas mĂĄs cortas (menos tokens, menos coste).
Y para los mĂĄs tĂŠcnicos: Leanstral, el primer agente de cĂłdigo open source para Lean 4, un asistente de pruebas matemĂĄticas. Puede verificar formalmente las implementaciones contra especificaciones estrictas. Con 6B parĂĄmetros activos, consigue resultados comparables a Claude Sonnet pero a una fracciĂłn del coste ($36 vs $549). Muy nicho, pero muy relevante para quienes trabajan en verificaciĂłn formal de software.

Con Forge, Mistral estĂĄ dando mucha mĂĄs flexibilidad y opciones, mĂĄs allĂĄ de simplemente permitir un pequeĂąo ajuste fino de sus modelos.
Mientras Mistral construye herramientas para que otros entrenen modelos, en OpenAI parece que estĂĄn replanteĂĄndose quĂŠ deberĂan construir ellos mismos.
SegĂşn el Wall Street Journal, los ejecutivos de OpenAI estĂĄn finalizando un cambio de estrategia importante para reenfocarse en cĂłdigo y usuarios de empresa. Fidji Simo, la CEO de aplicaciones de OpenAI, lo dejĂł claro en una reuniĂłn interna: "No podemos perder este momento porque estamos distraĂdos con side quests (misiones secundarias). Tenemos que clavar la productividad, en general, y particularmente la productividad en el frente empresarial".
El diagnĂłstico es revelador. El aĂąo pasado, OpenAI lanzĂł Sora (generaciĂłn de vĂdeo), Atlas (navegador web), un dispositivo de hardware y funciones de e-commerce para ChatGPT. Sam Altman lo comparĂł con "apostar en una serie de startups" dentro de OpenAI. El resultado: Sora llegĂł al nĂşmero 1 del App Store cuando lanzĂł su app independiente en septiembre, pero el uso se estancĂł en los meses siguientes. Ahora planean integrar la generaciĂłn de vĂdeo directamente en ChatGPT.

Fidji Simo, CEO de aplicaciones de OpenAI, ha sido quien ha revelado el reciente cambio de estrategia.
Mientras tanto, Anthropic les ha adelantado en el segmento de cĂłdigo y empresa. Claude Code y Cowork se han convertido en las herramientas de referencia para desarrolladores. Y sobre esto Simo dijo a los empleados que el ĂŠxito de Anthropic deberĂa ser un "wake-up call" para OpenAI.
Empleados actuales y antiguos describen al WSJ una situaciĂłn donde la estrategia de "hacer todo a la vez" dio lugar a falta de foco, recursos de computaciĂłn que saltaban de un equipo a otro a Ăşltima hora, y una estructura organizativa cada vez mĂĄs complicada. Simo estĂĄ empujando para integrar mĂĄs los equipos de investigaciĂłn y producto, y unificar las apuestas a largo plazo (incluido el dispositivo de hardware) alrededor de mejorar la productividad del usuario.
OpenAI ha recuperado algo de terreno en cĂłdigo: Codex tiene ahora mĂĄs de dos millones de usuarios activos semanales, casi cuatro veces mĂĄs que a principios de aĂąo. Pero Simo fue clara sobre la urgencia: "Estamos actuando como si fuera un cĂłdigo rojo" al igual que hicieron a finales de 2025 cuando vieron que Google con Gemini 3 les adelantaba por la derecha.
Tanto OpenAI como Anthropic se dirigen hacia posibles salidas a bolsa que podrĂan producirse este aĂąo, lo que aĂąade todavĂa mĂĄs presiĂłn a la competiciĂłn. De momento, OpenAI tambiĂŠn se beneficia de su dominio en el mercado de consumo y de la designaciĂłn de Anthropic como "riesgo para la cadena de suministro" por el PentĂĄgono, que ha hecho que algunas empresas sean mĂĄs cautelosas a la hora de comprar tecnologĂa de Anthropic.
De una empresa que busca su foco a un cientĂfico que acaba de confirmar el suyo.đ§Ş Yann LeCun levanta 1.030 millones para AMI Labs
ÂżOs acordĂĄis de Yann LeCun? Le dedicamos un perfil completo hace unos meses ya, cuando anunciĂł que dejaba Meta despuĂŠs de mĂĄs de una dĂŠcada liderando FAIR. Pues su nueva startup, AMI Labs, acaba de cerrar una ronda de 1.030 millones de dĂłlares con una valoraciĂłn de 3.500 millones. No estĂĄ mal para alguien que todavĂa no tiene producto.
AMI Labs trabaja en "modelos del mundo" (world models): IA que aprende de la realidad, no solo del lenguaje. Es la obsesiĂłn de LeCun desde hace aĂąos: modelos con arquitectura JEPA (Joint Embedding Predictive Architecture) que puedan entender el mundo fĂsico, no solo generar texto. Si los LLMs aprenden de leer, los world models aprenden de observar.
El equipo es impresionante: LeCun como presidente, Alexandre LeBrun (exCEO de Nabla) como CEO, Laurent Solly (ex-VP de Meta Europa) como COO, y varios investigadores de primer nivel. Sede en ParĂs, con oficinas en Nueva York, Montreal y Singapur. Entre los inversores estĂĄn NVIDIA, Samsung, Toyota, Bezos Expeditions, Eric Schmidt y Tim Berners-Lee. Y estĂĄn buscando mĂĄs gente que se les una al proyecto, por si te ves trabajando para ellos.
LeBrun reconoce que esto no va a dar resultados inmediatos. "No es tu tĂpica startup de IA aplicada que puede sacar un producto en tres meses y facturar en seis", dijo a TechCrunch. Su predicciĂłn: "En seis meses, todas las empresas se llamarĂĄn a sĂ mismas 'empresa de world models' para levantar rondas". Es el siguiente buzzword.

Yann LeCun, fundador de AMI Labs. ÂżConseguirĂĄn que los âworld modelsâ sean la nueva revoluciĂłn tras los LLM?
Lo que parece mĂĄs interesante es cĂłmo la salida de LeCun de Meta se ha materializado exactamente como ya se veĂa venir: un proyecto ambicioso, con mucho capital, y con un enfoque radicalmente distinto al mainstream de los LLMs. Pero habrĂĄ que ver el recorrido. Si tiene ĂŠxito, podrĂa cambiar la direcciĂłn de toda la industria. Si no, habrĂĄ sido el experimento de mil millones mĂĄs caro de la historia (en realidad hay varios a este nivel, en estos aĂąos de locura de la IA). De momento, publicarĂĄn papers y harĂĄn cĂłdigo open source. Consistente con el LeCun que conocemos.
Mientras LeCun busca reimaginar la IA desde cero, Anthropic sigue aĂąadiendo funcionalidades a la que ya tiene. Y la Ăşltima es bastante llamativa.
Anthropic ha sacado en research preview Dispatch, una nueva funcionalidad de Cowork que permite asignar tareas a Claude desde tu telĂŠfono para que las ejecute en tu ordenador. La idea: un hilo Ăşnico de conversaciĂłn persistente que sincroniza entre mĂłvil y escritorio. Le mandas un mensaje desde el mĂłvil, Claude trabaja en tu ordenador (con acceso a tus archivos, conectores y plugins de Cowork), y te manda el resultado cuando terminas.
Puedes pedirle que extraiga datos de una hoja de cĂĄlculo local, busque en tus mensajes de Slack y correo para redactar un informe, cree una presentaciĂłn con archivos de Google Drive, u organice archivos en una carpeta de tu ordenador. Todo sin estar delante de la pantalla. Felix Rieseberg, el ingeniero de Anthropic que lo anunciĂł en X, lo describiĂł como "mĂĄgico": "Todo lo que Claude puede hacer en tu ordenador (archivos, navegador, herramientas) se vuelve accesible desde donde estĂŠs".

Capturas de pantalla de lo que muestran en el vĂdeo de presentaciĂłn que enseùó Felix Rieseberg, del equipo de Anthropic, en un post en X. No hay mucho que enseĂąar. puedes mandar comandos ahora desde el mĂłvil.
Detalles importantes: Claude ejecuta todo en un sandbox en tu propio dispositivo y pide aprobaciĂłn antes de tomar cualquier acciĂłn. Los archivos son locales, no suben a ningĂşn servidor. Las limitaciones de siempre: el ordenador tiene que estar encendido y con Claude Desktop abierto. De momento un solo hilo de conversaciĂłn, sin paralelos. Disponible primero para planes Max; Pro llegarĂĄ pronto.
NemoClaw de NVIDIA, Dispatch de Anthropic, OpenClaw creciendo... el tema de fondo es el mismo: los agentes de IA estĂĄn dejando de ser chatbots para convertirse en asistentes que actĂşan por ti. Y a veces, esa acciĂłn salva vidas. Literalmente.
Y para cerrar las noticias, una historia que quizĂĄ os haga mirar a la IA con otros ojos.
Paul Conyngham es un empresario tecnolĂłgico australiano. En 2019 adoptĂł a Rosie, una mestiza de ocho aĂąos. En 2024, a Rosie le diagnosticaron cĂĄncer de mastocitos, un tumor potencialmente fatal. La cirugĂa y la quimioterapia estĂĄndar no funcionaron. Y Conyngham decidiĂł buscar otra salida.
Primero usĂł ChatGPT para orientarse sobre opciones. El modelo le recomendĂł contactar con el Centro Ramaciotti de GenĂłmica de la Universidad de Nueva Gales del Sur (UNSW). Conyngham pagĂł 3.000 dĂłlares de su bolsillo para secuenciar el ADN del tumor de Rosie. Con esa secuencia, usĂł AlphaFold (el sistema de DeepMind que predice estructuras 3D de proteĂnas) para modelar la proteĂna c-KIT, que es la que impulsa el cĂĄncer de mastocitos en perros. IdentificĂł un fĂĄrmaco que podrĂa atacarla. Pero el fabricante se negĂł a proporcionarlo para uso compasivo en un animal.
Segunda vuelta. Conyngham trabajĂł con investigadores del UNSW para diseĂąar una vacuna mRNA personalizada hecha directamente del tumor de Rosie, usando Grok para diseĂąar el constructo final. La vacuna se fabricĂł en el laboratorio de la universidad. Pero entonces llegĂł el siguiente obstĂĄculo: necesitaba un veterinario con aprobaciĂłn ĂŠtica para administrarla. Mari Maeda, de la Canine Cancer Alliance en Seattle, le puso en contacto con Rachel Allavena, de la Universidad de Queensland. La vacuna viajĂł hasta Gatton, un pueblo rural a las afueras de Brisbane. Conyngham hizo diez horas de coche con Rosie para la primera inyecciĂłn en diciembre. Refuerzo en febrero. Resultado: un tumor del tamaĂąo de una pelota de tenis en la pata trasera se ha reducido a la mitad.
"No me hago ilusiones de que esto sea una cura", dijo Conyngham. "Pero creo que este tratamiento le ha dado a Rosie significativamente mĂĄs tiempo y calidad de vida." Ahora estĂĄ trabajando en una segunda vacuna para otro tumor que no respondiĂł al primer tratamiento.

Paul Conyngham con su perro Rosie
El detalle que lo cambia todo: Conyngham solo pagĂł 3.000 dĂłlares, la secuenciaciĂłn del ADN. El resto lo hicieron investigadores que donaron su tiempo y recursos. Sin eso, producir nanopartĂculas de mRNA cuesta alrededor de 100.000 dĂłlares por paciente. No es un proceso que cualquiera pueda replicar maĂąana.
Pero lo que la historia ilustra sĂ es nuevo. Hace cinco aĂąos, ni siquiera sabĂas por dĂłnde empezar. Hoy, una persona con determinaciĂłn y acceso a herramientas de IA puede secuenciar, modelar proteĂnas, identificar dianas terapĂŠuticas y diseĂąar una vacuna personalizada. El conocimiento cientĂfico ya no estĂĄ solo en los laboratorios. La distancia entre "persona con una idea" y "persona que puede ejecutar esa idea" se estĂĄ reduciendo. Y eso, para bien y para mal, va a cambiar muchas cosas.
NVIDIA no para, modelos que entrenan con tus propios datos, hojas de ruta que se reescriben, startups de mil millones, agentes que controlan tu ordenador desde el mĂłvil, y perros que le deben la vida a la IA. Semana intensa. Pero faltaba algo: la herramienta que prometimos hace dos entregas.
đ La Herramienta de la semana đ
Gamma.app , para hacer presentaciones powerpoint con un prompt
Gamma es la app que convierte un prompt en una presentaciĂłn completa en menos de un minuto. No es una metĂĄfora: le describes el tema, eliges cuĂĄntas secciones quieres y el estilo visual, y en unos clics tienes slides con texto, imĂĄgenes y grĂĄficos generados. Sin abrir PowerPoint. Sin pelearte con plantillas. Sin ese momento de terror delante de una diapositiva en blanco.
La velocidad es lo primero que sorprende, pero lo que engancha es el nivel del punto de partida. La primera versiĂłn que genera suele ser presentable sin tocar nada. Hay un chat integrado para ajustar en lenguaje natural ("pon esto mĂĄs visual", "acorta el texto de esta slide"). Puedes cambiar el tema visual completo con un clic, sin afectar el contenido. Los grĂĄficos mĂĄs comunes (embudos, timelines, diagramas de Gantt) se generan solos y se puede integrar con YouTube, Figma, Miro, Google Drive, Loom, Unsplash...
El problema es que el "look Gamma" se empieza a reconocer. Igual que pasĂł con Canva, o con NotebookLM (ya llegaremos a esta otro dĂa) despuĂŠs de ver unas cuantas presentaciones hechas con esta app, el cerebro la identifica a los tres segundos. Si necesitas control fino sobre tipografĂa, colores de marca o posicionamiento exacto, te vas a frustrar: la personalizaciĂłn profunda no es su fuerte. Las imĂĄgenes que genera la IA varĂan mucho en calidad. Y al exportar a PowerPoint o Google Slides, el formateo a veces se descuadra. Funciona solo con internet, sin excepciĂłn.
Ah, y hace apenas unas semanas Gamma ha lanzado Gamma Imagine, su nueva apuesta por el diseĂąo nativo con IA. Va directamente al punto dĂŠbil mĂĄs criticado: el control visual. Es pronto para ver hasta dĂłnde llega, pero el timing no podĂa ser mejor.
Precios: plan gratis con 400 crĂŠditos que no se renuevan, Plus a 8âŹ/mes, Pro a 18âŹ/mes. Truco: si invitas a alguien, os dan 200 crĂŠditos extra a ambos. Y sobre el uso: el formato "flexible card" (el predeterminado) queda mejor que el 16:9 clĂĄsico. Y si quieres resultados de nivel, genera primero un guion detallado con Claude o ChatGPT y pĂĄsaselo a Gamma. El combo funciona sorprendentemente bien.
Mi veredicto: la mejor herramienta de presentaciones con IA que he probado, con diferencia. Para generar una primera versiĂłn sĂłlida en segundos, no tiene competencia real. Las limitaciones son reales pero asumibles. Y si Gamma Imagine acaba resolviendo el problema de la personalizaciĂłn visual, la ventaja sobre el resto se agranda todavĂa mĂĄs.
Y hasta aquĂ la entrega #24 de la Newsletter.
Dos semanas de noticias condensadas en una. La GTC ha dejado claro que NVIDIA quiere ser la empresa de infraestructura de la IA, no solo el fabricante de chips. LeCun apuesta mil millones a que los LLMs no son el futuro. Mistral demuestra que los franceses siguen muy vivos. Y mientras tanto, un perro en Australia le debe la vida a la inteligencia artificial. La semana que viene, mĂĄs, como siempre.
Recuerda que puedes puntuar el post y comentar despuĂŠs, por si quieres dar ideas, quejas, sugerencias, peticiones⌠đ¤
đ§ đ§ đ§ đ§ đ§ ÂĄAlimento para la mente!
đ§ đ§ đ§ Tienes que pensarlo mejor
đ§ Han faltado neuronas
Y si quieres que tus amigos o familiares estĂŠn tan al dĂa de la IA como tĂş, ÂĄpuedes compartirles esta newsletter o mi blog sobre IA! Uno con contenido de actualidad, y otro con artĂculos mĂĄs elaborados, que te ayudarĂĄn a entender la IA desde otro punto de vista.
>>> Nos vemos en la siguiente entrega đ¤
>>> ÂĄ Hasta prompto !

