
Bienvenido al Prompt, la newsletter sobre Inteligencia Artificial escrita con un poco de Inteligencia Natural
Ā”Hola prompters! 16 de Octubre. SĆ©ptima entrega y aquĆ sigues leyendo como el primer dĆa š¤. Mientras Figure nos promete, que el mayordomo robot estĆ” a la vuelta de la esquina, OpenAI sigue en su cruzada por controlarlo todo y se mete a fabricar sus propios chips. Y por si fuera poco, Samsung nos recuerda que a veces menos es mĆ”s: 7 millones de parĆ”metros que no tienen nada que envidiar en inteligencia a modelos 14.000 veces mĆ”s grandes.
En HistorIAs conocerƔs al matemƔtico amigo de Alan Turing que hizo posible que estƩs leyendo esto. Sin Ʃl, ni internet, ni IA, ni nada de nada. Vamos con ello.
En la newsletter de hoyā¦:
>>> Tres noticias destacadas
š¤ Figure 03: El mayordomo robot que sĆ quiere vivir en tu casa (de verdad esta vez)
š OpenAI va a por todo: ahora fabricarĆ” sus propios chips con Broadcom
š¤ Samsung TRM: Un modelo enano de 7 millones de parĆ”metros a la altura de gigantes de 100.000 millones
>>> HistorIAs de la IA
š¤ QuiĆ©n es quiĆ©n š¤ : Claude Shannon, el matemĆ”tico que hizo posible⦠todo esto.
>>> Una herramienta
š Neon: La app que te paga 30$ al dĆa por por tus llamadas telefónicas
Y por aquĆ abajo estĆ” el la canción resumen de la semana. Esta semana nos ponemos mĆ”s flamencos š
¿Qué ha pasado esta semana en el mundo de la IA?
Ya estĆ”n aquĆ. Ya han llegado (y no me refiero al 3I/ATLAS). La empresa de robótica Figure presentó el pasado viernes su nuevo robot humanoide, el Figure03. Y nos lo venden como un robot pensado y diseƱado para ser producido en masa. Prometen que no es el tĆpico prototipo que les ha costado millones hacer y que al final nunca llegarĆ” al consumidor. De hecho, han construido una fĆ”brica en California, diseƱado una cadena de suministro global, y estĆ”n prometiendo producir 12.000 unidades el primer aƱo. Nada menos. Llevamos aƱos viendo prototipos millonarios de robots domĆ©sticos que nunca pasan de vĆdeos cuidadosamente editados y demos controladas. Pero Figure parece decidida a romper ese patrón. Echad un vistazo al vĆdeo porque ahora parece futurista pero a lo mejor dentro de no muchos aƱos conoceremos a alguien que ya lo tiene en casa.
El Figure 03 pesa 61 kg (9 kg menos que su predecesor), tiene una autonomĆa de 5 horas y se mueve a 1,2 metros por segundo. Pero lo interesante no son las especificaciones tĆ©cnicas, sino lo que puede hacer: cargar el lavavajillas, mover paquetes, recoger la casa, poner la lavadora, meter la ropa en la secadora, doblar la ropa⦠Bueno, intentar doblar la ropa, porque segĆŗn el propio vĆdeo de demostración, las camisetas no le salen muy bien que digamos. Tampoco lo hemos visto tender ni planchar, que son probablemente las dos tareas del hogar mĆ”s odiadas universalmente, y llenar la lavadora parecĆa que le estaba constando tambiĆ©n. AsĆ que aĆŗn hay margen de mejora (mucho margen). Pero en realidad hacer una demo asĆ sigue la lĆnea de otras demos fallidas recientemente, como la de Meta. A veces que la demo no sea perfecta la hace mĆ”s natural, menos cocinada, y eso gusta.
El cerebro del robot es Helix, el modelo de IA propio de Figure que combina visión, lenguaje y acción. Lo interesante de Helix es que el robot puede aprender tareas nuevas simplemente observando a humanos. No viene preprogramado para hacer X cosas especĆficas, sino que puedes enseƱarle cosas nuevas. Para ello cuenta con un sistema de cĆ”maras (incluidas ahora en las manos para mejorar el agarre cuando las cĆ”maras de la cabeza quedan bloqueadas), micrófonos y sensores tĆ”ctiles tan precisos que puede hacer agarres de apenas 3 gramos de presión. Es decir, que no estamos lejos de ponernos a enseƱar a tu robot ayudante la receta de croquetas de la abuela.

MĆrale que majo, devolviendo el cojĆn al sofĆ”. ĀæQuiĆ©n no necesita un robot que te coloque el cojĆn en su sitio?
Pero lo que mĆ”s destaca de Figure y les hace diferenciarse de otras compaƱĆas es que han apostado fuerte por la fabricación en serie: moldeo por inyección, fundición a presión, diseƱo optimizado para ensamblaje rĆ”pido... Todo pensado para escalar. El objetivo es alcanzar 100.000 robots producidos en cuatro aƱos. Suena ambicioso, pero yo ya me creo todo despuĆ©s de estos dos Ćŗltimos aƱos de mejoras en la IA.
Y te preguntarÔs⦠¿y el precio? ”Ah! Ese un pequeño detalle que Figure aún no ha revelado: ¿cuÔnto va a costar uno de estos robots? En unos sitios ves que dicen ~50.000$, en otros que serÔ un robot low cost accesible para todos por ~20.000$⦠pero no hay precio oficial.
Pero si Figure consigue un precio competitivo, puede que estemos mÔs cerca de lo que pensamos de tener un mayordomo robótico en casa. Aunque sea uno que tarde 10 minutos en poner una lavadora. Se acabó ir a recoger tu pedido de Amazon a la taquillla. Que lo recoja tu robot por ti.
Y ahora vamos con la ya tradicional noticia de āOpenAI gastarĆ” decenas de miles de millones en un acuerdo conā¦ā
OpenAI no para. En serio, cada semana parece que anuncian un partnership millonario nuevo. Hace unas semanas te contÔbamos del acuerdo con Oracle por 300.000 millones de dólares para infraestructura y computación. Después hubo acuerdos con NVIDIA y AMD. Ahora le toca el turno a Broadcom: un acuerdo para que OpenAI diseñe y fabrique sus propios chips personalizados. Y por si quedaba duda de que esto va en serio, Broadcom subió un 9% en bolsa tras el anuncio.
La jugada tiene todo el sentido estratĆ©gico del mundo. Hasta ahora, OpenAI (como el resto de gigantes de IA) dependĆa casi exclusivamente de las GPUs de NVIDIA. Y sĆ, las H100 y las nuevas B200 son bestias increĆbles, pero tienen algunos problemas: son carĆsimas, estĆ”n en constante escasez y te hacen depender completamente de NVIDIA. AdemĆ”s, NVIDIA las vende a todos: a tu competencia, a tus rivales, a quien pague. No hay exclusividad, no hay optimización especĆfica para tus modelos.
AsĆ que OpenAI ha decidido hacer lo que hicieron antes Google (con sus TPUs), Amazon (con sus chips Trainium) y Meta (con sus chips MTIA): tomar control del stack completo. Desde el transistor hasta el chatbot (y te vendo productos en mi chat, y te hago la lista de Spotify en mi chat, y te cuento las noticias que te interesan en mi chatā¦). La estrategia es clara: chips diseƱados especĆficamente para los modelos GPT, optimizados para la inferencia, que sean mĆ”s eficientes energĆ©ticamente, y exclusivos.
Broadcom no es cualquier socio tampoco. Son los que estƔn detrƔs de los chips custom de Google desde hace aƱos. Saben fabricar silicio a escala, conocen el proceso de diseƱo para IA, y tienen la infraestructura lista. OpenAI pone el diseƱo y los requisitos; Broadcom pone la experiencia y las fƔbricas (bueno, tƩcnicamente TSMC pone las fƔbricas, pero ya me entiendes).
El plan incluye también una inversión gigante en centros de datos propios. Según reportes, estÔn hablando de 10 gigawatts de capacidad. Para ponerlo en perspectiva: eso es aproximadamente lo que generan 10 reactores nucleares. No es solo "vamos a tener mejores chips", es "vamos a construir la infraestructura energética y computacional para entrenar la próxima generación de modelos sin depender de nadie".
ĀæLos riesgos? Muchos. DiseƱar chips es difĆcil. DiseƱar chips buenos es durĆsimo. Google lleva mĆ”s de una dĆ©cada en esto y aĆŗn tiene dolores de cabeza (que NVIDIA no ha llegado a donde ha llegado sin que nadie le haya intentado arrebatar el trono de la creación de los mejores chips). OpenAI no tiene experiencia en hardware. Pueden quemar miles de millones en un diseƱo que acabe siendo menos eficiente que una NVIDIA pocha de turno. Pero si funciona, habrĆ”n conseguido una ventaja competitiva brutal: hardware optimizado para sus modelos especĆficos, costes predecibles, y cero dependencia de terceros. Algo asĆ como la ventaja que tiene Apple con sus chips Apple Silicion (los M), frente a la que tenĆa cuando usaban los Intel.

Hablando de NVIDIA y lo bien qe hacen las cosas: acaban de sacar este superminiordenador especializado para IA (la cajita de la derecha, no el macbook!): el DGX Spark. 4000$ por una cajita con una GPU Blackwell de 128GB de RAM y 1 Petaflop de velocidad de procesamiento en una cajita de 1kg. Ahora ya no hay excusa para no entrenar to propios modelos chiquititos en casa.
Y para ese público mÔs técnico que ve la arquitectura de una red neuronal y la entiende, vamos con una noticia de un avance que va a dar mucho que hablar en el diseño de los LLMs:
En una industria obsesionada con hacer modelos cada vez mƔs grandes (GPT-5 con rumores de 10 billones (de los nuestros) de parƔmetros, Gemini 2.5 Pro con cientos de miles de millones...), Samsung acaba de soltar una bomba: un modelo con 7 millones de parƔmetros que consigue mejores resultados que modelos 14.000 veces mƔs grandes en tareas de razonamiento abstracto.
SĆ, has leĆdo bien. 7 millones. Para que te hagas una idea, GPT-4 tiene unos 1.7 billones de parĆ”metros (con B de bestial). El modelo de Samsung, llamado TRM (Tiny Recursive Model), es bĆ”sicamente David contra Goliath, una vez mĆ”s David demostrando que lo importante no es el tamaƱo, sino cómo se usa.
ĀæCómo es posible? La clave estĆ” en el nombre: razonamiento recursivo. En lugar de responder a la primera (como hacen los modelos tradicionales), TRM piensa, repasa, corrige y vuelve a pensar. Hasta 16 veces si hace falta. Es como cuando estĆ”s escribiendo un texto y lo miras, lo remiras, lo escribes, reescribes, vuelves a repasarā¦: no das como bueno el primer texto que te venga, por mucho que sepas, porque saber demasiado te puede haber hecho irte por las ramas o autoconfundirte... Ese proceso iterativo es exactamente lo que hace TRM.

Mira que sencillo es el modelo. (Ā”SĆ, asĆ se ve un esquema de un modelo sencillo y pequeƱito!)
Los resultados son brutales. En el benchmark ARC-AGI-1 (que mide razonamiento abstracto y capacidad de generalización), TRM consigue un 45% de precisión. Gemini 2.5 Pro se queda en 37%. o3-mini de OpenAI también queda por detrÔs. Es como si un niño de primaria consiguiera mejores notas que estudiantes universitarios en un examen de lógica. A ver, siendo honestos, el 45% es un buen resultado, pero no el mejor que hemos visto en la historia. GPT-5 Pro, Grok 4 Thinking y Claude 4.5 Thinking rondan el 70%, ”pero es que estos modelos tienes miles de veces mÔs parÔmetros!
TambiĆ©n, ya que nos hemos puesto honestos: este modelo estĆ” especĆficamente diseƱado para tareas de razonamiento abstracto, no para tareas generales como los otros. No le puedes pedir que te escriba un email o que te genere una imagen. EstĆ” ultraespecializado en resolver puzzles lógicos del tipo "si ves este patrón, ĀæcuĆ”l es el siguiente elemento?". Es brillante en su nicho, pero no es un reemplazo para ChatGPT.

El TRM de Samsung estarĆa es la mitad de la tabla, pero no pienses que por ser tan chiquitito su coste lo iba a ser tambiĆ©n. Al iterar hasta 16 veces, la computación necesaria no es tan reducida como uno podrĆa pensar
Pero, si no es el mejor en nada, y no vale para todo, Āæpor quĆ© importa entonces? Porque demuestra que la carrera por modelos mĆ”s y mĆ”s grandes tiene un lĆmite de utilidad. A veces el problema no es cuĆ”ntos parĆ”metros tienes, sino cómo usas los que tienes. El razonamiento recursivo, la especialización, y la arquitectura inteligente pueden ganar a la fuerza bruta. En los Ćŗltimos aƱos se estaba dando por sentado que cuantos mĆ”s parĆ”metros, mĆ”s grandes los modelos, mĆ”s tiempo de entenamiento, mĆ”s coste, mĆ”s razonamiento⦠mejor serĆan en los benchmarks. Pero por suerte, hay vida mĆ”s allĆ” del tamaƱo, y se estĆ” demostrando que hay estrategias que pueden ayudar a un modelo a ser mucho mĆ”s eficiente.
Y la eficiencia es una palabra clave aquĆ: un modelo de 7M parĆ”metros cabe en un móvil. Se puede ejecutar localmente, sin conexión a internet, sin enviar tus datos a la nube. Las implicaciones para privacidad, velocidad y accesibilidad son enormes. No todo tiene que correr en un datacenter con la potencia de un reactor nuclear.
Samsung ha publicado el paper completo y el código es open source. Si te interesa el detalle tĆ©cnico, te pongo aquĆ el link que recopila todo (y puedes ChatGPT que te lo resuma... aunque quizĆ” TRM lo harĆa mejor en este caso š¤).
Fin de la sección de noticias! Hay muchas mĆ”s que se han quedado en el tintero porque si no, la newsletter ocuparĆa el triple. Entre ellas, como casi siempre muchas de Google (anuncion de Veo 3.1, anuncio de Google Enterprise AI, el nuevo āmodo IAāā¦) Y cuidado porque hay rumores de que Gemini 3.0 puede salir muy pronto de hecho š±.
Pero dejemos todo este monogrĆ”fico de Google para otro dĆa, y vamos con la ya clĆ”sica sección de HistorIAs de la IA:
HistorIAs de la IA. Hoy: š¤ QuiĆ©n es quiĆ©n š¤
Claude Shannon: el matemÔtico que hizo posible⦠todo esto
Si te digo "Claude", probablemente pienses en el chatbot de Anthropic, en Claude Sonnet, Claude Opus... Y sĆ, Claude lleva ese nombre por una razón: Claude Shannon, el matemĆ”tico y criptógrafo que bĆ”sicamente inventó la era digital. Sin exagerar ni un poco. Si estĆ”s leyendo esto en una pantalla, conectado a internet, con datos viajando por cables de fibra óptica o ondas de radio, es gracias a Ć©l.
Claude Elwood Shannon (Michigan, 1916 - Massachusetts, 2001) publicó en 1948 "A Mathematical Theory of Communication" (Una TeorĆa MatemĆ”tica de la Comunicación), el paper que dio origen a la teorĆa de la información. Antes de Shannon, "información" era un concepto vago y filosófico. DespuĆ©s de Shannon, es una cantidad medible, cuantificable, que se puede almacenar, transmitir y procesar. De hecho, fue Claude quien inventó el concepto de "bit" (binary digit) como unidad fundamental de información. SĆ, ese bit. El que ahora usamos para medir todo, desde la capacidad de tu USB hasta el tamaƱo de los modelos de IA.
Pero no se quedó ahĆ. En su tesis de master en el MIT (Ā”de master, ni una tesis doctoral siquiera!), demostró que los circuitos elĆ©ctricos podĆan usarse para realizar operaciones lógicas booleanas. Conectó Ć”lgebra booleana con circuitos electrónicos. Esa idea, aparentemente simple, es la base de todos los procesadores modernos. Cada CPU, cada GPU, cada chip que existe hoy en dĆa, funciona sobre esa premisa. Dime tĆŗ quĆ© trabajo de master conoces que tenga su propia entrada en la Wikipedia. Eran otros tiemposā¦
Shannon tambiĆ©n trabajó en criptografĆa durante la Segunda Guerra Mundial en Bell Labs, donde conoció a Alan Turing (sĆ, ese Alan Turing). Juntos discutĆan sobre mĆ”quinas pensantes y si algĆŗn dĆa las computadoras podrĆan aprender. Shannon escribió despuĆ©s varios papers sobre ajedrez computacional y llegó a construir un ratón mecĆ”nico que podĆa "aprender" a navegar un laberinto: uno de los primeros ejemplos de aprendizaje automĆ”tico fĆsico.

Mira a Claude con su ratón mecÔnico y laberintos mecÔnicos. el mecanismo bajo el laberinto (imagen de la derecha) era un conjunto de relés que se activaban cuando el ratón tocada una pared. En los siguiente recorridos, esa información ya estaba memorizada y registraba y ayudaba al ratón a llegar a su quesito mÔs rÔpido. 70 años después, GPT, Gemini, Claude y similares han llegado a lo que son gracias al aprendizaje por refuerzo. Justo el concepto en el que se basó este Teseo de Claude Shannon.
Y aquĆ viene la conexión con la IA moderna: Shannon fue de los primeros en pensar sobre lĆmites fundamentales de la computación y el procesamiento de información. Demostró que hay lĆmites teóricos a cuĆ”nta información puedes transmitir por un canal con ruido (el famoso Teorema de Shannon-Hartley), y que hay formas óptimas de codificar información para minimizar errores. Estos conceptos son crĆticos en el entrenamiento de redes neuronales, en la compresión de modelos, en la transmisión de datos entre GPUs en un cluster...
ĀæPor quĆ© Anthropic eligió su nombre para Claude? Porque la filosofĆa de Anthropic es construir IA segura y predecible, y eso requiere entender los lĆmites fundamentales del procesamiento de información. Shannon no solo construyó cosas, entendió los lĆmites teóricos de lo que es posible. Y esa mentalidad es exactamente lo que Anthropic busca: no solo construir modelos mĆ”s potentes, sino entender quĆ© pueden y quĆ© no pueden hacer, dónde estĆ”n sus lĆmites, cómo se comportan bajo restricciones.
Un dato curioso para acabar: Shannon era un genio excĆ©ntrico de manual. TenĆa un monociclo motorizado que usaba en los pasillos de Bell Labs, hacĆa malabares mientras montaba en monociclo, construyó mĆ”quinas inĆŗtiles por pura diversión (como una que no hacĆa nada excepto apagarse a sĆ misma), y tocaba el clarinete. Su oficina era un caos de prototipos, cables, piezas de ajedrez y ecuaciones en pizarras. El tipo de persona que resuelve problemas matemĆ”ticos fundamentales por la maƱana y construye robots absurdos por la tarde.

Claude y su monociclo, en una foto cedida por su familia. La de videos virales que se habrĆan hecho de las excentricidades de los grandes genios de otras Ć©pocasā¦
Sin Claude Shannon no existirĆa internet. Sin internet no existirĆa el big data. Sin big data no existirĆa el machine learning moderno. Sin machine learning no existirĆa la IA generativa. Sin IA generativa no estarĆas leyendo tu newsletter preferida: >>> El Prompt. Todo conectado. Y todo empezó con un matemĆ”tico peculiar que quiso entender quĆ© era exactamente la "información".
Y pasemos de genios que nos han legado todo un futuro, a āgeniosā que desarrollan herramientas quieran lucrarse de esto.
š La Herramienta de la semana
Neon: Te pagan 30$ al dĆa por tus llamadas telefónicas
Vale, esta noticia es de esas que te hacen pensar "Āæen serio hemos llegado aquĆ ya?". Neon llegó al puesto nĆŗmero 2 en la categorĆa de apps sociales del App Store de Apple en septiembre. No por ser revolucionaria, no por conectar personas, no por hacer el mundo mejor. Su propuesta de valor es brutalmente simple: te pagan por dejar que graben tus llamadas. 30 cĆ©ntimos por minuto con otros usuarios de Neon, hasta 30 dólares diarios hablando con cualquiera. Haz las cuentas rĆ”pido: 100 minutos al dĆa (casi dos horas) para sacar el mĆ”ximo. Dos horas vendiendo cada palabra, cada risa nerviosa, cada "te llamo luego" a tu madre.
Todo grabado, procesado y vendido a empresas de IA para entrenar sus modelos conversacionales. Es bĆ”sicamente monetizar tu voz para que las IAs aprendan a sonar humanas. La próxima vez que ChatGPT capte tu tono irónico o que Claude entienda tu sarcasmo, acuĆ©rdate de que quizĆ” estĆ” imitando a alguien que vendió esa conversación Ćntima por menos que un menĆŗ del dĆa.
La app promete que "solo graba tu lado", a menos que los dos usĆ©is Neon, en cuyo caso graba todo. Tranquilizador. Imagina explicarle a tu jefe que esa llamada confidencial sobre la fusión de la empresa ahora es parte del training data de GPT-6. O que tu terapia telefónica estĆ” enseƱando a Gemini cómo suena alguien teniendo un ataque de ansiedad. AdemĆ”s, legalmente, Neon pone la responsabilidad en ti: tĆŗ debes informar que estĆ”s grabando. Ellos se lavan las manos. En muchos sitios, grabar sin consentimiento explĆcito es ilegal. Neon bĆ”sicamente te dice "allĆ” tĆŗ" y se lleva su comisión. Es como venderte una pistola y decirte "pero si disparas, es tu problema legal, Āæeh?".
Pero tranquilo, que mejora. A las pocas semanas de volverse viral, Neon tuvo que cerrar temporalmente. El motivo: expusieron nĆŗmeros de telĆ©fono, grabaciones y transcripciones de usuarios. Un "pequeƱo incidente" de seguridad, nada grave š. La respuesta de la compaƱĆa: un email prometiendo volver y seguir vendiendo grabaciones. Al menos son honestos. No disfrazan esto de "comunidad" ni "innovación social". Es un mercadillo de datos personales.

Una imagen del fundador de Neon en su web. Me dicen que es un avatar creado por IA y me lo creo.
Y ahora viene la parte que realmente te va a hacer pensar: la app llegó al número 2 del App Store. Miles de personas estÔn vendiendo activamente su privacidad por 30 dólares diarios. Para poner esto en perspectiva:
Facebook fue multado con 5.000 millones de dólares en 2019 por Cambridge Analytica, donde vendieron datos (sin audio de llamadas privadas) de 87 millones de usuarios a terceros sin su consentimiento explĆcito.
Tus conversaciones privadas, tu voz, tus patrones de habla, tus opiniones polĆticas, tu salud mental (Āæhas llorado en una llamada Ćŗltimamente?), todo eso tiene un valor ENORME para las empresas de IA.
Las Big Tech pagan millones por datasets de calidad para entrenar modelos conversacionales
ĀæY Neon quĆ© te ofrece? 0.30$/minuto. Es como si tu casa de 300.000⬠te la compraran por 500⬠y tĆŗ dijeras "bueno, mejor que nada". Pero hay gente aceptando el trato, asĆ que... AdemĆ”s: ĀæquiĆ©n te asegura que solo va a "empresas serias de IA"? Neon no especifica. PodrĆan ser OpenAI, Google... o startups en paraĆsos regulatorios, gobiernos comprando voces, empresas de anĆ”lisis polĆtico, o cualquiera con intenciones no tan transparentes.
ĀæAlgo positivo? Es dinero real, la app funciona (eso sĆ, de momento, sólo en EEUU, asĆ que si estaban pensando qeu te ibas a hacer de oro porque hablas por telĆ©fono 5 horas al dĆa⦠o te mudas o tendrĆ”s que esperar si alguna vez desembarca en tu paĆs). Aunque quizĆ” haya mejores formas de ganar 30$/dĆa que jugĆ”rtela legalmente y vender conversaciones que valen órdenes de magnitud mĆ”s, no sĆ© š¤.
Y hasta aquĆ la entrega #07 de la Newsletter.
Recuerda que puedes puntuar el post y comentar despuĆ©s, por si quieres dar ideas, quejas, sugerencias, peticiones⦠š¤ .
š§ š§ š§ š§ š§ Ā”Alimento para la mente!
š§ š§ š§ Tienes que pensarlo mejor
š§ Han faltado neuronas
Y si quieres que tus amigos o familiares estĆ©n tan al dĆa de la IA como tĆŗ, Ā”puedes compartirles esta newsletter o mi blog sobre IA! Uno con contenido de actualidad, y otro con artĆculos mĆ”s elaborados, que te ayudarĆ”n a entender la IA desde otro punto de vista.
>>> Nos vemos en la siguiente entrega š¤
>>> Ā” Hasta prompto !

