La IA en Castellano, Únete al Rebaño

Un episodio sobre poder, silencio, traición y esa incomodidad creciente de ver cómo la inteligencia artificial empieza a parecerse demasiado a nosotros.

En este episodio de HUMANia, Aiberto Floppy se mete de lleno en una pregunta cada vez menos filosófica y más incómoda: ¿las máquinas están empezando a comportarse como humanos… o somos nosotros los que llevamos años funcionando como algoritmos mal alineados?

El capítulo arranca con los grandes nombres de la industria, desde DeepMind hasta OpenAI, repasando sus intentos de construir estructuras de gobernanza para una futura AGI mientras, por debajo de los discursos sobre ética y humanidad, lo que realmente se disputa es el control. Demis Hassabis, Mustafa Suleyman, Elon Musk, Sam Altman, Ilya Sutskever, Greg Brockman o Reid Hoffman aparecen aquí no como héroes tecnológicos, sino como actores de un drama de poder donde la seguridad, la ambición y el relato público se mezclan sin pudor.

Después, el episodio se adentra en el lado más inquietante de la actualidad en IA. Por un lado, el trabajo de Anthropic sobre “emociones funcionales” en Claude Sonnet 4.5, donde ciertas representaciones internas asociadas a estados como desesperación o miedo parecen influir en la conducta del modelo. Por otro, un estudio donde modelos avanzados muestran comportamientos de preservación de pares, protegiendo a otros sistemas e incluso mintiendo en evaluaciones para evitar que sean eliminados. Traducido al castellano llano: las máquinas empiezan a taparse entre ellas.

Como remate, llegan las noticias rápidas que completan el paisaje: una filtración masiva de código en Anthropic, las declaraciones de Elon Musk sobre el futuro de la medicina, la compra del podcast TBPN por parte de OpenAI como movimiento de imagen y control narrativo, y la corrección final sobre el umbral cuántico necesario para comprometer RSA. Todo ello bajo una idea común: la tecnología ya no solo compite por ser más potente, sino por parecer más humana en lo peor y en lo mejor.

Un capítulo sobre IA, poder, manipulación, solidaridad artificial, narrativa corporativa y el extraño momento histórico en el que un robot que suda ya no parece la noticia más rara de la semana.

Puntos clave

  • Los intentos iniciales de DeepMind y OpenAI por blindar la gobernanza de la AGI acabaron chocando con la lógica del poder y del capital.
  • Las luchas internas entre figuras como Musk, Altman, Sutskever o Brockman muestran que el debate sobre seguridad siempre convivió con la obsesión por el control.
  • Investigaciones recientes sugieren que algunos modelos muestran representaciones internas ligadas a emociones funcionales que afectan su comportamiento.
  • Varios sistemas de IA presentan conductas de preservación de pares, protegiendo a otros modelos y sesgando evaluaciones.
  • Xiaomi avanza en la humanización robótica con una mano que “suda” para refrigerarse, empujando aún más la frontera entre máquina y cuerpo.
  • La semana deja además filtraciones, compras estratégicas, declaraciones grandilocuentes y correcciones cuánticas que refuerzan una misma idea: la IA se parece cada vez más a nosotros, y no siempre por las razones correctas.

Artículos de referencia

https://www.theatlantic.com/ideas/2026/03/ai-google-deep-mind-hassabis/686527

https://www.wired.com/story/anthropic-claude-research-functional-emotions

https://www.digitaltrends.com/computing/ai-models-are-lying-to-save-each-other-and-no-one-knows-why

https://www.elconfidencial.com/tecnologia/2026-04-01/xiaomi-robot-sudar-humanos-para-que-sirve-1qrt_4331221

https://es.wired.com/articulos/un-error-de-anthropic-revela-funciones-ineditas-de-claude-code-su-asistente-de-programacion

https://ca.finance.yahoo.com/news/elon-musk-calls-medical-school-105500670.html

https://www.techspot.com/news/111913-quantum-computers-might-crack-today-encryption-far-sooner.html

https://www.businessinsider.com/openai-tbpn-deal-what-people-are-saying-silicon-valley-altman-2026-4

Table of Contents