Bienvenido al Prompt, la newsletter sobre Inteligencia Artificial escrita con un poco de Inteligencia Natural

Ā”Hola prompters! 16 de Octubre. SĆ©ptima entrega y aquĆ­ sigues leyendo como el primer dĆ­a šŸ¤. Mientras Figure nos promete, que el mayordomo robot estĆ” a la vuelta de la esquina, OpenAI sigue en su cruzada por controlarlo todo y se mete a fabricar sus propios chips. Y por si fuera poco, Samsung nos recuerda que a veces menos es mĆ”s: 7 millones de parĆ”metros que no tienen nada que envidiar en inteligencia a modelos 14.000 veces mĆ”s grandes.

En HistorIAs conocerƔs al matemƔtico amigo de Alan Turing que hizo posible que estƩs leyendo esto. Sin Ʃl, ni internet, ni IA, ni nada de nada. Vamos con ello.

En la newsletter de hoy…:

>>> Tres noticias destacadas

šŸ¤– Figure 03: El mayordomo robot que sĆ­ quiere vivir en tu casa (de verdad esta vez)
šŸ­ OpenAI va a por todo: ahora fabricarĆ” sus propios chips con Broadcom
šŸ¤ Samsung TRM: Un modelo enano de 7 millones de parĆ”metros a la altura de gigantes de 100.000 millones

>>> HistorIAs de la IA
šŸ‘¤ QuiĆ©n es quiĆ©n šŸ‘¤ : Claude Shannon, el matemĆ”tico que hizo posible… todo esto.

>>> Una herramienta
šŸ›  Neon: La app que te paga 30$ al dĆ­a por por tus llamadas telefónicas

Y por aquĆ­ abajo estĆ” el la canción resumen de la semana. Esta semana nos ponemos mĆ”s flamencos šŸ’ƒ

¿Qué ha pasado esta semana en el mundo de la IA?

Ya estÔn aquí. Ya han llegado (y no me refiero al 3I/ATLAS). La empresa de robótica Figure presentó el pasado viernes su nuevo robot humanoide, el Figure03. Y nos lo venden como un robot pensado y diseñado para ser producido en masa. Prometen que no es el típico prototipo que les ha costado millones hacer y que al final nunca llegarÔ al consumidor. De hecho, han construido una fÔbrica en California, diseñado una cadena de suministro global, y estÔn prometiendo producir 12.000 unidades el primer año. Nada menos. Llevamos años viendo prototipos millonarios de robots domésticos que nunca pasan de vídeos cuidadosamente editados y demos controladas. Pero Figure parece decidida a romper ese patrón. Echad un vistazo al vídeo porque ahora parece futurista pero a lo mejor dentro de no muchos años conoceremos a alguien que ya lo tiene en casa.

El Figure 03 pesa 61 kg (9 kg menos que su predecesor), tiene una autonomĆ­a de 5 horas y se mueve a 1,2 metros por segundo. Pero lo interesante no son las especificaciones tĆ©cnicas, sino lo que puede hacer: cargar el lavavajillas, mover paquetes, recoger la casa, poner la lavadora, meter la ropa en la secadora, doblar la ropa… Bueno, intentar doblar la ropa, porque segĆŗn el propio vĆ­deo de demostración, las camisetas no le salen muy bien que digamos. Tampoco lo hemos visto tender ni planchar, que son probablemente las dos tareas del hogar mĆ”s odiadas universalmente, y llenar la lavadora parecĆ­a que le estaba constando tambiĆ©n. AsĆ­ que aĆŗn hay margen de mejora (mucho margen). Pero en realidad hacer una demo asĆ­ sigue la lĆ­nea de otras demos fallidas recientemente, como la de Meta. A veces que la demo no sea perfecta la hace mĆ”s natural, menos cocinada, y eso gusta.

El cerebro del robot es Helix, el modelo de IA propio de Figure que combina visión, lenguaje y acción. Lo interesante de Helix es que el robot puede aprender tareas nuevas simplemente observando a humanos. No viene preprogramado para hacer X cosas específicas, sino que puedes enseñarle cosas nuevas. Para ello cuenta con un sistema de cÔmaras (incluidas ahora en las manos para mejorar el agarre cuando las cÔmaras de la cabeza quedan bloqueadas), micrófonos y sensores tÔctiles tan precisos que puede hacer agarres de apenas 3 gramos de presión. Es decir, que no estamos lejos de ponernos a enseñar a tu robot ayudante la receta de croquetas de la abuela.

Mírale que majo, devolviendo el cojín al sofÔ. ¿Quién no necesita un robot que te coloque el cojín en su sitio?

Pero lo que mÔs destaca de Figure y les hace diferenciarse de otras compañías es que han apostado fuerte por la fabricación en serie: moldeo por inyección, fundición a presión, diseño optimizado para ensamblaje rÔpido... Todo pensado para escalar. El objetivo es alcanzar 100.000 robots producidos en cuatro años. Suena ambicioso, pero yo ya me creo todo después de estos dos últimos años de mejoras en la IA.

Y te preguntarĆ”s… Āæy el precio? Ā”Ah! Ese un pequeƱo detalle que Figure aĆŗn no ha revelado: ĀæcuĆ”nto va a costar uno de estos robots? En unos sitios ves que dicen ~50.000$, en otros que serĆ” un robot low cost accesible para todos por ~20.000$… pero no hay precio oficial.

Pero si Figure consigue un precio competitivo, puede que estemos mÔs cerca de lo que pensamos de tener un mayordomo robótico en casa. Aunque sea uno que tarde 10 minutos en poner una lavadora. Se acabó ir a recoger tu pedido de Amazon a la taquillla. Que lo recoja tu robot por ti.

Y ahora vamos con la ya tradicional noticia de ā€œOpenAI gastarĆ” decenas de miles de millones en un acuerdo conā€¦ā€

OpenAI no para. En serio, cada semana parece que anuncian un partnership millonario nuevo. Hace unas semanas te contÔbamos del acuerdo con Oracle por 300.000 millones de dólares para infraestructura y computación. Después hubo acuerdos con NVIDIA y AMD. Ahora le toca el turno a Broadcom: un acuerdo para que OpenAI diseñe y fabrique sus propios chips personalizados. Y por si quedaba duda de que esto va en serio, Broadcom subió un 9% en bolsa tras el anuncio.

La jugada tiene todo el sentido estratégico del mundo. Hasta ahora, OpenAI (como el resto de gigantes de IA) dependía casi exclusivamente de las GPUs de NVIDIA. Y sí, las H100 y las nuevas B200 son bestias increíbles, pero tienen algunos problemas: son carísimas, estÔn en constante escasez y te hacen depender completamente de NVIDIA. AdemÔs, NVIDIA las vende a todos: a tu competencia, a tus rivales, a quien pague. No hay exclusividad, no hay optimización específica para tus modelos.

AsĆ­ que OpenAI ha decidido hacer lo que hicieron antes Google (con sus TPUs), Amazon (con sus chips Trainium) y Meta (con sus chips MTIA): tomar control del stack completo. Desde el transistor hasta el chatbot (y te vendo productos en mi chat, y te hago la lista de Spotify en mi chat, y te cuento las noticias que te interesan en mi chat…). La estrategia es clara: chips diseƱados especĆ­ficamente para los modelos GPT, optimizados para la inferencia, que sean mĆ”s eficientes energĆ©ticamente, y exclusivos.

Broadcom no es cualquier socio tampoco. Son los que estƔn detrƔs de los chips custom de Google desde hace aƱos. Saben fabricar silicio a escala, conocen el proceso de diseƱo para IA, y tienen la infraestructura lista. OpenAI pone el diseƱo y los requisitos; Broadcom pone la experiencia y las fƔbricas (bueno, tƩcnicamente TSMC pone las fƔbricas, pero ya me entiendes).

El plan incluye también una inversión gigante en centros de datos propios. Según reportes, estÔn hablando de 10 gigawatts de capacidad. Para ponerlo en perspectiva: eso es aproximadamente lo que generan 10 reactores nucleares. No es solo "vamos a tener mejores chips", es "vamos a construir la infraestructura energética y computacional para entrenar la próxima generación de modelos sin depender de nadie".

¿Los riesgos? Muchos. Diseñar chips es difícil. Diseñar chips buenos es durísimo. Google lleva mÔs de una década en esto y aún tiene dolores de cabeza (que NVIDIA no ha llegado a donde ha llegado sin que nadie le haya intentado arrebatar el trono de la creación de los mejores chips). OpenAI no tiene experiencia en hardware. Pueden quemar miles de millones en un diseño que acabe siendo menos eficiente que una NVIDIA pocha de turno. Pero si funciona, habrÔn conseguido una ventaja competitiva brutal: hardware optimizado para sus modelos específicos, costes predecibles, y cero dependencia de terceros. Algo así como la ventaja que tiene Apple con sus chips Apple Silicion (los M), frente a la que tenía cuando usaban los Intel.

Hablando de NVIDIA y lo bien qe hacen las cosas: acaban de sacar este superminiordenador especializado para IA (la cajita de la derecha, no el macbook!): el DGX Spark. 4000$ por una cajita con una GPU Blackwell de 128GB de RAM y 1 Petaflop de velocidad de procesamiento en una cajita de 1kg. Ahora ya no hay excusa para no entrenar to propios modelos chiquititos en casa.

Y para ese público mÔs técnico que ve la arquitectura de una red neuronal y la entiende, vamos con una noticia de un avance que va a dar mucho que hablar en el diseño de los LLMs:

En una industria obsesionada con hacer modelos cada vez mƔs grandes (GPT-5 con rumores de 10 billones (de los nuestros) de parƔmetros, Gemini 2.5 Pro con cientos de miles de millones...), Samsung acaba de soltar una bomba: un modelo con 7 millones de parƔmetros que consigue mejores resultados que modelos 14.000 veces mƔs grandes en tareas de razonamiento abstracto.

Sí, has leído bien. 7 millones. Para que te hagas una idea, GPT-4 tiene unos 1.7 billones de parÔmetros (con B de bestial). El modelo de Samsung, llamado TRM (Tiny Recursive Model), es bÔsicamente David contra Goliath, una vez mÔs David demostrando que lo importante no es el tamaño, sino cómo se usa.

ĀæCómo es posible? La clave estĆ” en el nombre: razonamiento recursivo. En lugar de responder a la primera (como hacen los modelos tradicionales), TRM piensa, repasa, corrige y vuelve a pensar. Hasta 16 veces si hace falta. Es como cuando estĆ”s escribiendo un texto y lo miras, lo remiras, lo escribes, reescribes, vuelves a repasar…: no das como bueno el primer texto que te venga, por mucho que sepas, porque saber demasiado te puede haber hecho irte por las ramas o autoconfundirte... Ese proceso iterativo es exactamente lo que hace TRM.

Mira que sencillo es el modelo. (”Sí, así se ve un esquema de un modelo sencillo y pequeñito!)

Los resultados son brutales. En el benchmark ARC-AGI-1 (que mide razonamiento abstracto y capacidad de generalización), TRM consigue un 45% de precisión. Gemini 2.5 Pro se queda en 37%. o3-mini de OpenAI también queda por detrÔs. Es como si un niño de primaria consiguiera mejores notas que estudiantes universitarios en un examen de lógica. A ver, siendo honestos, el 45% es un buen resultado, pero no el mejor que hemos visto en la historia. GPT-5 Pro, Grok 4 Thinking y Claude 4.5 Thinking rondan el 70%, ”pero es que estos modelos tienes miles de veces mÔs parÔmetros!

También, ya que nos hemos puesto honestos: este modelo estÔ específicamente diseñado para tareas de razonamiento abstracto, no para tareas generales como los otros. No le puedes pedir que te escriba un email o que te genere una imagen. EstÔ ultraespecializado en resolver puzzles lógicos del tipo "si ves este patrón, ¿cuÔl es el siguiente elemento?". Es brillante en su nicho, pero no es un reemplazo para ChatGPT.

El TRM de Samsung estaría es la mitad de la tabla, pero no pienses que por ser tan chiquitito su coste lo iba a ser también. Al iterar hasta 16 veces, la computación necesaria no es tan reducida como uno podría pensar

Pero, si no es el mejor en nada, y no vale para todo, Āæpor quĆ© importa entonces? Porque demuestra que la carrera por modelos mĆ”s y mĆ”s grandes tiene un lĆ­mite de utilidad. A veces el problema no es cuĆ”ntos parĆ”metros tienes, sino cómo usas los que tienes. El razonamiento recursivo, la especialización, y la arquitectura inteligente pueden ganar a la fuerza bruta. En los Ćŗltimos aƱos se estaba dando por sentado que cuantos mĆ”s parĆ”metros, mĆ”s grandes los modelos, mĆ”s tiempo de entenamiento, mĆ”s coste, mĆ”s razonamiento… mejor serĆ­an en los benchmarks. Pero por suerte, hay vida mĆ”s allĆ” del tamaƱo, y se estĆ” demostrando que hay estrategias que pueden ayudar a un modelo a ser mucho mĆ”s eficiente.

Y la eficiencia es una palabra clave aquí: un modelo de 7M parÔmetros cabe en un móvil. Se puede ejecutar localmente, sin conexión a internet, sin enviar tus datos a la nube. Las implicaciones para privacidad, velocidad y accesibilidad son enormes. No todo tiene que correr en un datacenter con la potencia de un reactor nuclear.

Samsung ha publicado el paper completo y el código es open source. Si te interesa el detalle tĆ©cnico, te pongo aquĆ­ el link que recopila todo (y puedes ChatGPT que te lo resuma... aunque quizĆ” TRM lo harĆ­a mejor en este caso šŸ¤“).

Fin de la sección de noticias! Hay muchas mĆ”s que se han quedado en el tintero porque si no, la newsletter ocuparĆ­a el triple. Entre ellas, como casi siempre muchas de Google (anuncion de Veo 3.1, anuncio de Google Enterprise AI, el nuevo ā€œmodo IAā€ā€¦) Y cuidado porque hay rumores de que Gemini 3.0 puede salir muy pronto de hecho 😱.

Pero dejemos todo este monogrÔfico de Google para otro día, y vamos con la ya clÔsica sección de HistorIAs de la IA:

Si te digo "Claude", probablemente pienses en el chatbot de Anthropic, en Claude Sonnet, Claude Opus... Y sí, Claude lleva ese nombre por una razón: Claude Shannon, el matemÔtico y criptógrafo que bÔsicamente inventó la era digital. Sin exagerar ni un poco. Si estÔs leyendo esto en una pantalla, conectado a internet, con datos viajando por cables de fibra óptica o ondas de radio, es gracias a él.

Claude Elwood Shannon (Michigan, 1916 - Massachusetts, 2001) publicó en 1948 "A Mathematical Theory of Communication" (Una Teoría MatemÔtica de la Comunicación), el paper que dio origen a la teoría de la información. Antes de Shannon, "información" era un concepto vago y filosófico. Después de Shannon, es una cantidad medible, cuantificable, que se puede almacenar, transmitir y procesar. De hecho, fue Claude quien inventó el concepto de "bit" (binary digit) como unidad fundamental de información. Sí, ese bit. El que ahora usamos para medir todo, desde la capacidad de tu USB hasta el tamaño de los modelos de IA.

Pero no se quedó ahĆ­. En su tesis de master en el MIT (Ā”de master, ni una tesis doctoral siquiera!), demostró que los circuitos elĆ©ctricos podĆ­an usarse para realizar operaciones lógicas booleanas. Conectó Ć”lgebra booleana con circuitos electrónicos. Esa idea, aparentemente simple, es la base de todos los procesadores modernos. Cada CPU, cada GPU, cada chip que existe hoy en dĆ­a, funciona sobre esa premisa. Dime tĆŗ quĆ© trabajo de master conoces que tenga su propia entrada en la Wikipedia. Eran otros tiempos…

Shannon también trabajó en criptografía durante la Segunda Guerra Mundial en Bell Labs, donde conoció a Alan Turing (sí, ese Alan Turing). Juntos discutían sobre mÔquinas pensantes y si algún día las computadoras podrían aprender. Shannon escribió después varios papers sobre ajedrez computacional y llegó a construir un ratón mecÔnico que podía "aprender" a navegar un laberinto: uno de los primeros ejemplos de aprendizaje automÔtico físico.

Mira a Claude con su ratón mecÔnico y laberintos mecÔnicos. el mecanismo bajo el laberinto (imagen de la derecha) era un conjunto de relés que se activaban cuando el ratón tocada una pared. En los siguiente recorridos, esa información ya estaba memorizada y registraba y ayudaba al ratón a llegar a su quesito mÔs rÔpido. 70 años después, GPT, Gemini, Claude y similares han llegado a lo que son gracias al aprendizaje por refuerzo. Justo el concepto en el que se basó este Teseo de Claude Shannon.

Y aquí viene la conexión con la IA moderna: Shannon fue de los primeros en pensar sobre límites fundamentales de la computación y el procesamiento de información. Demostró que hay límites teóricos a cuÔnta información puedes transmitir por un canal con ruido (el famoso Teorema de Shannon-Hartley), y que hay formas óptimas de codificar información para minimizar errores. Estos conceptos son críticos en el entrenamiento de redes neuronales, en la compresión de modelos, en la transmisión de datos entre GPUs en un cluster...

¿Por qué Anthropic eligió su nombre para Claude? Porque la filosofía de Anthropic es construir IA segura y predecible, y eso requiere entender los límites fundamentales del procesamiento de información. Shannon no solo construyó cosas, entendió los límites teóricos de lo que es posible. Y esa mentalidad es exactamente lo que Anthropic busca: no solo construir modelos mÔs potentes, sino entender qué pueden y qué no pueden hacer, dónde estÔn sus límites, cómo se comportan bajo restricciones.

Un dato curioso para acabar: Shannon era un genio excéntrico de manual. Tenía un monociclo motorizado que usaba en los pasillos de Bell Labs, hacía malabares mientras montaba en monociclo, construyó mÔquinas inútiles por pura diversión (como una que no hacía nada excepto apagarse a sí misma), y tocaba el clarinete. Su oficina era un caos de prototipos, cables, piezas de ajedrez y ecuaciones en pizarras. El tipo de persona que resuelve problemas matemÔticos fundamentales por la mañana y construye robots absurdos por la tarde.

Claude y su monociclo, en una foto cedida por su familia. La de videos virales que se habrĆ­an hecho de las excentricidades de los grandes genios de otras Ć©pocas…

Sin Claude Shannon no existiría internet. Sin internet no existiría el big data. Sin big data no existiría el machine learning moderno. Sin machine learning no existiría la IA generativa. Sin IA generativa no estarías leyendo tu newsletter preferida: >>> El Prompt. Todo conectado. Y todo empezó con un matemÔtico peculiar que quiso entender qué era exactamente la "información".

Y pasemos de genios que nos han legado todo un futuro, a ā€œgeniosā€ que desarrollan herramientas quieran lucrarse de esto.

šŸ›  La Herramienta de la semana
Neon: Te pagan 30$ al día por tus llamadas telefónicas

Vale, esta noticia es de esas que te hacen pensar "¿en serio hemos llegado aquí ya?". Neon llegó al puesto número 2 en la categoría de apps sociales del App Store de Apple en septiembre. No por ser revolucionaria, no por conectar personas, no por hacer el mundo mejor. Su propuesta de valor es brutalmente simple: te pagan por dejar que graben tus llamadas. 30 céntimos por minuto con otros usuarios de Neon, hasta 30 dólares diarios hablando con cualquiera. Haz las cuentas rÔpido: 100 minutos al día (casi dos horas) para sacar el mÔximo. Dos horas vendiendo cada palabra, cada risa nerviosa, cada "te llamo luego" a tu madre.

Todo grabado, procesado y vendido a empresas de IA para entrenar sus modelos conversacionales. Es bÔsicamente monetizar tu voz para que las IAs aprendan a sonar humanas. La próxima vez que ChatGPT capte tu tono irónico o que Claude entienda tu sarcasmo, acuérdate de que quizÔ estÔ imitando a alguien que vendió esa conversación íntima por menos que un menú del día.

La app promete que "solo graba tu lado", a menos que los dos uséis Neon, en cuyo caso graba todo. Tranquilizador. Imagina explicarle a tu jefe que esa llamada confidencial sobre la fusión de la empresa ahora es parte del training data de GPT-6. O que tu terapia telefónica estÔ enseñando a Gemini cómo suena alguien teniendo un ataque de ansiedad. AdemÔs, legalmente, Neon pone la responsabilidad en ti: tú debes informar que estÔs grabando. Ellos se lavan las manos. En muchos sitios, grabar sin consentimiento explícito es ilegal. Neon bÔsicamente te dice "allÔ tú" y se lleva su comisión. Es como venderte una pistola y decirte "pero si disparas, es tu problema legal, ¿eh?".

Pero tranquilo, que mejora. A las pocas semanas de volverse viral, Neon tuvo que cerrar temporalmente. El motivo: expusieron nĆŗmeros de telĆ©fono, grabaciones y transcripciones de usuarios. Un "pequeƱo incidente" de seguridad, nada grave šŸ™„. La respuesta de la compaƱƭa: un email prometiendo volver y seguir vendiendo grabaciones. Al menos son honestos. No disfrazan esto de "comunidad" ni "innovación social". Es un mercadillo de datos personales.

Una imagen del fundador de Neon en su web. Me dicen que es un avatar creado por IA y me lo creo.

Y ahora viene la parte que realmente te va a hacer pensar: la app llegó al número 2 del App Store. Miles de personas estÔn vendiendo activamente su privacidad por 30 dólares diarios. Para poner esto en perspectiva:

  • Facebook fue multado con 5.000 millones de dólares en 2019 por Cambridge Analytica, donde vendieron datos (sin audio de llamadas privadas) de 87 millones de usuarios a terceros sin su consentimiento explĆ­cito.

  • Tus conversaciones privadas, tu voz, tus patrones de habla, tus opiniones polĆ­ticas, tu salud mental (Āæhas llorado en una llamada Ćŗltimamente?), todo eso tiene un valor ENORME para las empresas de IA.

  • Las Big Tech pagan millones por datasets de calidad para entrenar modelos conversacionales

ĀæY Neon quĆ© te ofrece? 0.30$/minuto. Es como si tu casa de 300.000€ te la compraran por 500€ y tĆŗ dijeras "bueno, mejor que nada". Pero hay gente aceptando el trato, asĆ­ que... AdemĆ”s: ĀæquiĆ©n te asegura que solo va a "empresas serias de IA"? Neon no especifica. PodrĆ­an ser OpenAI, Google... o startups en paraĆ­sos regulatorios, gobiernos comprando voces, empresas de anĆ”lisis polĆ­tico, o cualquiera con intenciones no tan transparentes.

ĀæAlgo positivo? Es dinero real, la app funciona (eso sĆ­, de momento, sólo en EEUU, asĆ­ que si estaban pensando qeu te ibas a hacer de oro porque hablas por telĆ©fono 5 horas al dĆ­a… o te mudas o tendrĆ”s que esperar si alguna vez desembarca en tu paĆ­s). Aunque quizĆ” haya mejores formas de ganar 30$/dĆ­a que jugĆ”rtela legalmente y vender conversaciones que valen órdenes de magnitud mĆ”s, no sĆ© šŸ¤”.

Y hasta aquĆ­ la entrega #07 de la Newsletter.

Recuerda que puedes puntuar el post y comentar despuĆ©s, por si quieres dar ideas, quejas, sugerencias, peticiones… šŸ¤“ .

🧠 🧠 🧠 🧠 🧠 ”Alimento para la mente!
🧠 🧠 🧠 Tienes que pensarlo mejor
🧠 Han faltado neuronas

Y si quieres que tus amigos o familiares estén tan al día de la IA como tú, ”puedes compartirles esta newsletter o mi blog sobre IA! Uno con contenido de actualidad, y otro con artículos mÔs elaborados, que te ayudarÔn a entender la IA desde otro punto de vista.

ā

>>> Nos vemos en la siguiente entrega šŸ¤

>>> Ā” Hasta prompto !

Carlos Velasco | >>> El Prompt

>>> TambiƩn puedes compartir la newsletter con tus seres queridos con este link.
>>> O aƱadirla a tu RSS feed con este link.

ĀæAlgo que decir?

Avatar

or to participate

Posts Recomendados