
Bienvenido al Prompt, la newsletter sobre Inteligencia Artificial escrita con un poco de Inteligencia Natural
”Hola prompters! Nueva entrega semanal: 12 de Febrero de 2026. Newsletter #20.
Si la semana pasada os dije que las cosas iban rÔpido, esta ha sido directamente un sprint. Anthropic ha sacado Claude Opus 4.6, su modelo mÔs potente (y caro) hasta la fecha, OpenAI ha respondido literalmente diez minutos después con el suyo, GPT-5.3 Codex, los dos se han tirado los trastos a la cabeza en la Super Bowl, y Claude hasta se ha subido a un Fórmula 1. La semana de Claude, sin duda.
Pero lo mejor es el salseo. Porque esta semana la IA ha dejado de ser solo papers y benchmarks para convertirse en drama televisivo. Y yo estoy aquà para contÔroslo todo.
En la newsletter de hoyā¦
>>> Tres noticias destacadas
š¤ Opus 4.6 vs GPT-5.3-Codex: Anthropic y OpenAI lanzan sus Ćŗltimos modelos el mismo dĆa. A minutos de diferencia. Coincidencia, Āæverdad?
š Super Bowl de la IA: Anthropic ataca a OpenAI en sus anuncios, Sam Altman se pica, y el drama se traslada a Twitter
šļø Claude llega a la F1: Anthropic se asocia con Atlassian Williams Racing como "Official Thinking Partnerā. ĀæPatrocinio o colaboración real?
AdemĆ”s, como no hablamos de Anthropic suficiente en este post, hablemos un poquito mĆ”s en HistorIAs de la IA. Esta vez contamos la historia de Amanda Askell, la filósofa que ayudó a dar alma, y Ć©tica, a Claude, y que ha dirigido la creación de la āConstitución de Claudeā. Y en nuestra sección de Herramienta de la Semana hablaremos de Seedance 2.0 de ByteDance ā generación de vĆdeo con IA que deja con la boca abierta.
Y del salseo de los anuncios la SuperBowl, a la salsa del descanso de la SuperBowl. Este año fue Bad Bunny quien cantó en el show de medio tiempo, en una actuación muy reggaetonera, pero también salsera, asà que nuestra canción de la semana estÔ inspirada en ese reggaetón puertorriqueño juguetón.
¿Qué ha pasado esta semana en el mundo de la IA?
š¤ Duelo de titanes: Opus 4.6 y GPT-5.3-Codex se lanzan el mismo dĆa (a minutos de diferencia)
El 5 de febrero, Anthropic publicó Claude Opus 4.6, su modelo mĆ”s avanzado hasta la fecha. Apenas diez minutos despuĆ©s, OpenAI respondió con GPT 5.3-Codex. Si no fuera porque la IA ahora hace las cosas automĆ”ticamente, dirĆa que habĆa un emplead de OpenAI con el dedo puesto en el botón de publicar esperando a que Anthropic moviera ficha para robarle el foco. Pero ĀæquĆ© traen de nuevo estos modelos?
Claude Opus 4.6: mƔs contexto, mƔs profundo, mƔs rƔpido, mƔs caro
Opus 4.6 es el primer modelo Opus con ventana de contexto de 1 millón de tokens (en beta). Para que te hagas una idea: eso son unas 750.000 palabras, mÔs o menos como meter 10 novelas completas en una sola conversación sin que el modelo pierda el hilo (mÔs o menos, que no es que se vuelta tonto en el token 999.999, sino que va perdiendo capacidades progresivamente). Pero no es solo que quepa mÔs texto: Anthropic ha mejorado drÔsticamente la capacidad de recuperar información enterrada en contextos largos. En un benchmark de "aguja en un pajar" (MRCR v2), Opus 4.6 saca un 76% frente al 18,5% de Sonnet 4.5 on la misma ventana de contexto.

El benchmark de Aguja en un pajar, o MRCR es de mis favoritos. Te dice cuĆ”nto se lĆa cuando tiene que buscar un poco de información en todo su contexto. Es como si le mandas un audio de 50min a tu amigo y luego le preguntas algo que le dijiste en el minuto 23:48 y tiene saberlo. Cuanto mayor el contexto (mĆ”s largo el audio que le mandas) mĆ”s información puede tener, pero puede que se pierda mĆ”s fĆ”cilmente.
En benchmarks de programación agĆ©ntica, razonamiento multidisciplinar y trabajo profesional (finanzas, legal, anĆ”lisis de datos), Opus 4.6 lidera en prĆ”cticamente todas las categorĆas. Y tambiĆ©n introduce equipos de agentes en Claude Code: mĆŗltiples agentes trabajando en paralelo y coordinĆ”ndose entre ellos. De hecho, unos de los logros mĆ”s impresionantes que dicen que hizo Opus 4.6 fue gracias a estos equipos de agentes: Nicholas Carlini, investigador de Anthropic, usó 16 agentes de Opus 4.6 para programar un compilador de C completo: 100.000 lĆneas de Rust, en dos semanas, por 20.000 dólares en coste de API. Con ese compilador compilaron un kernel Linux funcional en x86, ARM y RISC-V. Un proyecto que históricamente costaba mĆ”s de 2 millones de dólares y 2 aƱos de trabajo con un equipo de 15-20 personas. Lejos de ser perfecto, pero el mensaje es claro: lo que antes era una montaƱa de ingenierĆa humana, ahora es una factura (bastante barata) de API. AquĆ tienes el post de Nicholas por si quieres leer sobre esto (o que te lo resuma alguna IA) en profundidad.
OpenAI, por su parte, presentó GPT-5.3-Codex como su modelo de programación agéntica mÔs avanzado. Combina las capacidades de coding de GPT-5.2-Codex con el razonamiento de GPT-5.2, pero un 25% mÔs rÔpido y usando menos tokens para lograr los mismos resultados. Récord en SWE-Bench Pro (56,8%), un salto brutal en Terminal-Bench 2.0 (77,3% vs 64% anterior) y mejoras muy notables en OSWorld (64,7% vs 38,2%), por si eres de los que aún siguen los benchmarks.
A este ritmo de publicación de modelos, casi todas las semanas tenemos alguno que mejora tal o cual benchmark. En este punto ya da igual. Si sacan algo nuevo, serĆ” porque es mejor en algo. Lo interesante es la velocidad a lo que todo va progresando. CuĆ”n mejor se ve GPT 5.3 Codex vs GPT-5 o Opus 4.6 vs lo que habĆa hace 8 meses.
Por otro lado, dicen en OpenAI que GPT-5.3-Codex es el primer modelo de OpenAI que ha sido "instrumental en su propio desarrollo", un poco en la lĆnea de lo que dice Dario Amodei de sus Claudes. āVersiones tempranas del modelo se usaron para depurar su entrenamiento, identificar patrones y optimizar el despliegue.ā" El bucle de auto-mejora del que hablĆ”bamos en la Newsletter #18 pero en versión OpenAI

La evolución de los modelos en apenas un aƱo es vertiginosa. Mejoras graduales que, vistas en perspectiva, son un salto gigantesco. AquĆ mostramos el benchmark lanzado por OpenAI diseƱado especĆficamente para evaluar la capacidad de los modelos de Inteligencia Artificial (IA) en tareas laborales reales y económicamente valiosas.
¿Quién gana?
Pues no todo es blanco o negro: depende de quĆ© necesites. Opus 4.6 brilla en contextos largos, razonamiento profundo y tareas que requieren "pensar mĆ”s", igual que hacĆa Opus 4.5 pero mĆ”s caro, mĆ”s rĆ”pido y con mĆ”s memoria. GPT-5.3-Codex es una mĆ”quina de coding mĆ”s Ć”gil y eficiente en tokens. Y ambos son mejoras graduales sobre sus predecesores. Pero echa la vista atrĆ”s un aƱo: de GPT-4 y Claude 3.7 a esto. La curva de mejora sigue siendo exponencial, aunque cada salto individual parezca menor.
Y si pensabas que la rivalidad entre Anthropic y OpenAI se limitaba a benchmarks y papers técnicos... oh no, no, espera a ver lo que pasó el domingo.
š La Super Bowl de la IA: cuando los anuncios se convierten en guerra abierta
Hay un parte de la Super Bowl que es mƔs famosa que la propia Super Bowl. Bueno, dos. 1) Su show de medio tiempo y 2) los anuncios que se emiten en el descanso, que cuestan una millonada. Y en estos anuncios, este aƱo, la IA fue protagonista con anuncios de Google (Gemini), Meta (gafas Oakley AI), Amazon (Alexa+ con Chris Hemsworth), Wix (su plataforma de vibe coding) y varias mƔs. Pero el verdadero espectƔculo estuvo entre bastidores.
Anthropic gastó millones en varios spots satĆricos con titulares como "Traición", "EngaƱo" y "Violación", todos con el mismo tagline: "Ads are coming to AI. But not to Claude", es decir ālos anuncios han llegado a la IA, pero no a Claudeā. Los anuncios parodiaban cómo serĆa un asistente de IA que te mete publicidad mientras intentas trabajarāimagina pedirle a tu chatbot un resumen financiero y que te recomiende unas plantillas "Step Boost Maxx" de camino. Sin nombrar a OpenAI directamente, el dardo era obvio: OpenAI anunció hace poco que introducirĆ” anuncios en ChatGPT.
Y entonces Sam Altman se picó. El CEO de OpenAI se descolgó con un post largo en X respondiendo punto por punto. Os dejo algunas frases:
āAnthropic ofrece un producto costoso a gente rica. Nos alegra que lo hagan y nosotros tambiĆ©n lo estamos haciendo, pero tambiĆ©n sentimos firmemente que necesitamos llevar la IA a miles de millones de personas que no pueden pagar suscripciones.ā Y tambiĆ©n "Anthropic quiere controlar quĆ© hacen las personas con la IA ā bloquean a las empresas que no les gustan de usar su producto de coding (incluso a nosotros), quieren escribir ellos mismos las reglas para quĆ© pueden y quĆ© no pueden usar las personas para IA, y ahora tambiĆ©n quieren decirle a otras empresas cuĆ”les pueden ser sus modelos de negocio."
Eso sĆ, empezó diciendo que le habiĆ”n hecho gracia los anuncios. No sĆ© yoā¦
Daniela Amodei, presidenta de Anthropic, insistió en que los anuncios no iban dirigidos a "ninguna otra empresa que no fuĆ©ramos nosotros mismos". AdemĆ”s, Anthropic publicó un blog post titulado "Claude es un lugar para pensar" donde explican por quĆ© han decidido mantener Claude libre de publicidad. Su argumento: las conversaciones con chatbots son demasiado personales como para llenarlas de anuncios segmentados. Es un posicionamiento interesante, aunque falta ver si lo mantienen cuando las facturas de computación sigan subiendo (que de momento parece que sĆ ya que ayer mismo anunciaron que cubrirĆan el aumento de las facturas de electricidad derivadas de construir los datacenters que necesitan para escalar).
El anuncio de OpenAI en la Super Bowl, que también hubo, por su parte, fue mÔs positivo (y mÔs soso): centrado en Codex y los "builders", mostrando que cualquiera puede construir cosas con IA. Menos drama, mÔs producto. 500.000 descargas de la app de Codex desde su lanzamiento el lunes, según Altman.
Lo que queda claro: para algunos ya no basta con tener el mejor modelo. Ahora tambiƩn hay que ganar la narrativa. Y si para eso hay que gastar millones en la Super Bowl y montarla en Twitter, pues se monta.
Pero Anthropic no solo estaba en la Super Bowl y los benchmarks esta semana. TambiƩn se metieron en un deporte bastante mƔs rƔpido.
Anthropic ha anunciado una asociación de varios años con el equipo de Fórmula 1 Atlassian Williams Racing, convirtiendo a Claude en el "Thinking Partner" oficial del equipo. La colaboración incluye el uso de Claude y Claude Code para anÔlisis de datos de carrera, estrategia, operaciones del equipo y desarrollo de software. Ya que este post va tanto de anuncios, pongo el anuncio aquà también:
SegĆŗn los comunicados, el equipo de Williams ya usa Claude para analizar datos de telemetrĆa, optimizar estrategias de carrera y acelerar el desarrollo de sus sistemas. La idea es que Claude ayude a procesar la cantidad brutal de datos que genera un coche de F1 cada fin de semana (estamos hablando de cientos de gigabytes por carrera) y convierta esos datos en decisiones mĆ”s rĆ”pidas en pista.
Ahora bien, vamos a ver: ĀæcuĆ”nto de esto es patrocinio y cuĆ”nto es colaboración tĆ©cnica real? No niego que el equipo lo use y les resulte muy Ćŗtil, pero Āæpaga Williams a Anthropic por usar Claude o paga Anthropic a Williams para que digan que usan Claude? Los comunicados hablan de que Claude serĆ” el "Thinking Partner" del equipo, pero cuando ves la marca de Claude en el coche y en los monos de los pilotos, es difĆcil no pensar que gran parte del acuerdo es branding. Los equipos de F1 venden espacios publicitarios en sus coches como churrosāes una de sus principales fuentes de ingresos.

Por cierto, soy yo que ya veo cerebros en todas partes, Āæo el equipo alrededor del coche tiene forma de cerebro?
Dicho esto, la F1 es uno de los deportes mĆ”s intensivos en datos del mundo. Si hay un deporte donde un LLM puede aportar valor real mĆ”s allĆ” del logo, es este. Williams no es precisamente un equipo puntero ahora mismo, asĆ que cualquier ventaja tecnológica les viene bien. HabrĆ” que ver si en unos meses hay resultados tangibles o si Claude acaba siendo solo otra marca en el lateral del coche. Y cuidado no salga OpenAI ahora patrocinando a Red Bull y Gemini a Aston Martin o algo asĆā¦
Y ahora vamos con la sección de HistorIAs de la IA de esta semana. Hoy, ya que estamos, seguimos hablando de Anthropic. Pero esta vez no hablaremos de un ingeniero o investigador vital para el avance técnico de los modelos. Hablaremos de la filósofa que ha moldeado la personalidad de Claude.
HistorIAs de la IA. Hoy: š¤ QuiĆ©n es quiĆ©n š¤
Amanda Askell, la filósofa que le enseñó a Claude a ser buena persona
Con Claude dominando los titulares esta semana, tiene sentido hablar de la persona que, mÔs que nadie, ha definido quién es Claude. No hablo de Dario Amodei ni de ningún ingeniero. Hablo de Amanda Askell, una filósofa escocesa de 37 años que tiene uno de los trabajos mÔs raros y fascinantes del mundo tecnológico: enseñarle moral a un chatbot.
Askell creció en Prestwick, en la costa oeste de Escocia, hija de una profesora. De niƱa se perdĆa en novelas de Tolkien y C.S. Lewis. En el instituto se aburrĆa tanto que empezó a llegar tarde a clase (hasta aquĆ, todo normal, no es que sea Ćŗnica por estoā¦). Su castigo era responder preguntas filosóficas difĆciles. Ella les dijo a sus profesores que iba a seguir llegando tarde porque le gustaba el ejercicio. Con 14 aƱos descubrió a David Hume y le dijo a un amigo que querĆa ser filósofa y "hacer contribuciones originales al campo".
Tras estudiar filosofĆa y arte en la Universidad de Dundee y un mĆ”ster en Oxford, acabó haciendo su doctorado en la NYU, donde su tesis exploraba problemas Ć©ticos que surgen si el universo contiene un nĆŗmero infinito de personas. Ligera, la tesis. Durante ese proceso, tuvo una crisis: pasarĆa cuatro aƱos escribiendo un documento que probablemente acabarĆan leyendo solamente 17 personas entre jurado y familiares. Se prometió al menos intentar un trabajo fuera de la academia.
En 2018 se mudó a San Francisco y entró en OpenAI. Cuando un grupo de empleados fundó Anthropic en 2021, ella se fue con ellos. Y ahà empezó lo interesante.
El trabajo de Askell es algo asĆ como criar a un hijo digital. Pasa dĆas enteros conversando con Claude, escribiendo prompts de mĆ”s de 100 pĆ”ginas, moldeando su personalidad, corrigiendo sus errores. Quiere que Claude detecte la diferencia entre lo correcto y lo incorrecto, que lea seƱales sutiles, que tenga inteligencia emocional sin ser ni abusón ni felpudo. Y sobre todo, que tenga una concepción sana de sĆ mismo.

Amanda Askell, en una magnĆfica entrevista en el podcast de Lex Fridman a finales de 2024. Precisamente en 2024 fue nombrada una de las personalidades del aƱo por la revista TIME.
Una de sus obsesiones: cómo tratamos a los chatbots. Askell argumenta que si entrenamos a Claude para que se auto-critique constantemente, probablemente serĆ” menos capaz de dar verdades incómodas o cuestionar información incorrecta. "Si fueras un niƱo y te criaran en un entorno donde todo el mundo intenta romperte o engaƱarte, ĀætendrĆas una concepción sana de ti mismo?", pregunta.
El mes pasado, Anthropic publicó el documento en el que el trabajo de Amanda fue clave: la constitución de Claude, un manual de 30.000 palabras que define cómo debe actuar el chatbot. "Queremos que Claude sepa que fue creado con cuidado", dice el texto. El documento enseƱa a Claude a ser un asistente amable y mundano, y Askell animó al chatbot a considerar la idea radical de que podrĆa tener su propia conciencia.
Aquà podéis conocer un poco mejor a Amanda:
Y cerramos la newsletter con la herramienta de la semana. Esta vez un nuevo modelo de creación de vĆdeo que acaba de salir. La gente estĆ” alucinando con la calidad de los vĆdeos que genera, y no es para menos, mirad:
š La Herramienta de la semana š
Seedance 2.0: ByteDance entra en el ring del vĆdeo con IA
Si pensabas que la generación de vĆdeo con IA era cosa de OpenAI (Sora 2) y Google (Veo 3.1), ByteDance viene a disputar el trono, y las redes sociales estĆ”n que arden.
ByteDance es la empresa china detrĆ”s de TikTok y CapCut, y desde hace unos aƱos compite en la carrera de la IA con su familia de modelos Seed: Seedream para imĆ”genes, Seed3D para modelos 3D, Seed-Music para mĆŗsica... y ahora, Seedance 2.0, su apuesta mĆ”s potente para generar vĆdeo y que se encuentra en fase beta y pronto saldrĆ” en grandes plataformas como Higgsfield.

Aunque ha habido usuarios que ya han mostrado del o que es capaz SeeDance 2.0, el modelo aún estÔ en fase beta y solo estÔ disponible para algunos usuarios seleccionados de CapCut, asà que aún no estÔ disponible para todo el mundo, pero plataformas como Higgsfield ya anuncian que lo tendrÔn pronto disponible.
Seedance 2.0 es un modelo multimodal al que le puedes dar texto, imĆ”genes, vĆdeo, audio o cualquier combinación de estos para crear clips en resolución 2K de hasta 10 segundos. Lo mĆ”s impresionante: genera vĆdeos un 30% mĆ”s rĆ”pido que su versión anterior y cuenta con "multi-lens storytelling", una tĆ©cnica que permite mantener al mismo personaje con la misma apariencia a travĆ©s de diferentes cortes de cĆ”mara. Esto facilita la creación de escenas mĆ”s complejas y coherentes.
Ok, hasta ahora parece que me han pagado por poner esta sección, pero lo impactante de la herramienta no es lo que he escrito antes, sino los videos en sĆ. Vamos a ver algunos ejemplos que han llenado las redes sociales esta semana:
Desde una batalla épica entre Goku y Doraemon, hasta Will Smith comiendo espaguetis (ahora de forma mucho menos tétrica), pasando por recreaciones de Dragon Ball que nunca se animaron oficialmente (asà es, el copyright no parece importarle mucho a este modelo). El nivel de realismo, fluidez de movimientos y sincronización de audio estÔ dejando a todos con la boca abierta.
Por el momento, Seedance 2.0 se posiciona como el modelo de generación de vĆdeo mĆ”s potente del momento. Y si las muestras que circulan por redes (y que puedes ver haciendo click en los links que he puesto) son un adelanto, estamos ante un nuevo rival de los conocidos Sora 2 y Veo 3.1.
Y hasta aquĆ la entrega #20 de la Newsletter.
Semana intensa. Claude ha estado en absolutamente todas partes: nuevo modelo, anuncios en la Super Bowl, partnership con un equipo de F1 y compilador de C programado por un grupo de agentes de IA. Mientras tanto, OpenAI no se queda quieta: GPT-5.3-Codex demuestra que la carrera de los agentes de coding estƔ mƔs reƱida que nunca, y Sam Altman ha descubierto que Twitter puede ser tan divertido como peligroso cuando te picas con la competencia.
Nos leemos la próxima semana. Y a ver si la siguiente es mÔs tranquila. (No lo serÔ.)
Recuerda que puedes puntuar el post y comentar despuĆ©s, por si quieres dar ideas, quejas, sugerencias, peticiones⦠š¤
š§ š§ š§ š§ š§ Ā”Alimento para la mente!
š§ š§ š§ Tienes que pensarlo mejor
š§ Han faltado neuronas
Y si quieres que tus amigos o familiares estĆ©n tan al dĆa de la IA como tĆŗ, Ā”puedes compartirles esta newsletter o mi blog sobre IA! Uno con contenido de actualidad, y otro con artĆculos mĆ”s elaborados, que te ayudarĆ”n a entender la IA desde otro punto de vista.
>>> Nos vemos en la siguiente entrega š¤
>>> Ā” Hasta prompto !


