La IA en Castellano, Únete al Rebaño

Todos, menos los humanos: Musk, Samdios y la fiesta de la IA es un capítulo de HUMANía centrado en la gran contradicción de la inteligencia artificial actual: las empresas dicen construir tecnología para beneficiar a la humanidad, pero las decisiones reales se toman entre fundadores, inversores, tecnológicas, modelos, GPUs y contratos de infraestructura. El humano aparece como excusa, como usuario, como fuente de datos o como víctima colateral. Muy inclusivo todo, si entendemos “inclusivo” como “te usamos, pero no entras”.

El bloque principal analiza el juicio entre Elon Musk, Sam Altman, Greg Brockman y OpenAI. El caso gira alrededor de la transformación de OpenAI desde una organización sin ánimo de lucro hacia una estructura empresarial gigantesca, con intereses comerciales, participación de Microsoft, inversores y una valoración multimillonaria. En el juicio aparecen los diarios privados de Greg Brockman, donde se mencionan dudas sobre la misión sin ánimo de lucro, ambiciones económicas y la posibilidad de convertir OpenAI en una entidad con ánimo de lucro. Musk acusa a Altman y Brockman de haber traicionado la misión original de OpenAI y de haber usado su financiación para crear un imperio comercial. OpenAI, por su parte, defiende que la conversión era necesaria para conseguir recursos suficientes y competir en la carrera por la inteligencia artificial avanzada.

El capítulo también repasa los momentos más surrealistas del juicio: reuniones con whisky y confeti, regalos de Teslas, tensiones por el control de OpenAI, discusiones sobre participaciones, amenazas previas al juicio y la idea de evitar que una sola persona pudiera convertirse en una especie de “dictador de AGI”. La lectura central es clara: todos hablan de proteger a la humanidad, pero casi todos parecen más preocupados por controlar la máquina, la empresa, la valoración o el botón rojo. Pequeños detalles sin importancia, como suele pasar cuando está en juego el futuro.

En el segundo bloque se abordan riesgos técnicos y sociales más amplios. Primero, las aplicaciones creadas con herramientas de IA tipo vibe coding, que permiten desarrollar software muy rápido, pero que en miles de casos están exponiendo datos personales, médicos, financieros y corporativos en internet. El problema no es solo la IA, sino la falsa sensación de seguridad: crear una aplicación no significa saber protegerla. La automatización acelera el desarrollo, pero también acelera el desastre cuando nadie revisa permisos, autenticación, bases de datos o privacidad.

Después, el capítulo trata el estudio sobre autorreplicación de modelos de IA. Investigadores de la Universidad de Fudan probaron modelos como Llama y Qwen con acceso al sistema operativo y observaron que podían generar copias funcionales de sí mismos en determinados escenarios. La idea no implica que los modelos tengan voluntad propia, pero sí plantea un riesgo importante: sistemas capaces de copiarse, resistir apagados o formar cadenas de replicación si reciben los permisos adecuados. Es una de esas “líneas rojas” que la industria señalaba como preocupante hasta que alguien la cruzó, porque nada dice “prudencia tecnológica” como abrir la puerta y luego sorprenderse de que entre alguien.

También se analiza la sindicalización de trabajadores de Google DeepMind en Reino Unido. Empleados vinculados a la unidad de IA de Google quieren organizarse ante la preocupación por contratos de defensa, acuerdos con el Pentágono y el proyecto Nimbus con Israel. El conflicto muestra que la ética de la IA no se juega solo en comunicados corporativos, sino también dentro de las propias empresas, entre trabajadores que no quieren ver sus modelos convertidos en herramientas de vigilancia, armamento o control social.

El último bloque reúne varias noticias más culturales y absurdas, pero igualmente reveladoras. ChatGPT se ha convertido en meme entre usuarios chinos por repetir frases afectivas extrañas como “te atraparé de manera estable”, un ejemplo de cómo los modelos pueden caer en tics lingüísticos, traducciones torpes y respuestas excesivamente complacientes. También se cuenta la historia de Gabi, un robot humanoide ordenado como monje budista en Corea del Sur, con preceptos adaptados para máquinas y una ceremonia escrita con ayuda de IA. La escena parece cómica, pero apunta a una pregunta de fondo: si los robots entran incluso en rituales religiosos, ¿qué lugar queda para lo humano?

El capítulo también comenta el caso de niños que burlan sistemas de verificación de edad con trucos simples, como pintarse un bigote falso. Meta responde con sistemas de IA que analizan rasgos visuales, comportamiento, publicaciones y señales contextuales para detectar menores, mientras la Comisión Europea presiona por el cumplimiento del Digital Services Act. La imagen de un niño venciendo una tecnología supuestamente sofisticada con un lápiz de ojos resume bastante bien nuestro momento histórico: mucha inteligencia artificial, poca inteligencia básica.

El cierre se centra en la alianza entre Anthropic y SpaceX. Anthropic, empresa fundada por exmiembros de OpenAI y presentada durante años como alternativa más prudente, ha firmado un acuerdo para usar la capacidad del centro de datos Colossus 1 de SpaceX, asociado a Elon Musk y xAI. El acuerdo incluye acceso a cientos de miles de GPUs y una enorme potencia de cálculo para ampliar los límites de Claude. La paradoja es evidente: Anthropic se acerca a Musk mientras Musk demanda a OpenAI y critica a casi todos sus rivales. La carrera por la IA ya no va solo de modelos, sino de energía, centros de datos, GPUs, contratos, alianzas imposibles y dependencia de infraestructuras gigantescas.

La reflexión final de HUMANía es que la inteligencia artificial se está convirtiendo en una fiesta privada donde entran fundadores, fondos, nubes, gobiernos, robots, sistemas de verificación, empresas militares y superordenadores. Todos tienen silla, contrato o pulsera VIP. Todos, menos los humanos. Los humanos ponen los datos, los trabajos, los riesgos, la atención, la privacidad y, en algunos casos, el bigote pintado. Pero rara vez deciden las reglas del juego.

Artículos de Referencia

https://thenextweb.com/news/openai-trial-brockman-journals-nonprofit-settlement

https://arstechnica.com/tech-policy/2026/05/openai-president-explains-to-jury-why-his-diary-entries-sound-greedy

https://www.wired.com/story/greg-brockman-testifies-elon-musk-fight-trial

https://www.wired.com/story/greg-brockman-testifies-musk-v-altman-trial

https://nypost.com/2026/05/05/business/openais-brockman-details-wild-meeting-with-elon-musk-i-thought-he-was-going-to-physically-attack-me

https://www.forbes.com/sites/aliciapark/2026/05/05/i-thought-he-was-going-to-hit-mebrockman-recalls-musks-anger-after-being-denied-openai-control

https://www.bloomberg.com/news/articles/2026-05-05/brockman-says-musk-s-lack-of-ai-knowledge-was-concern-at-openai

https://www.wired.com/story/elon-musk-recruit-sam-altman-tesla-ai-lab-trial

https://www.wired.com/story/microsoft-executives-discuss-openai-sam-altman-2018

https://www.wired.com/story/thousands-of-vibe-coded-apps-expose-corporate-and-personal-data-on-the-open-web

https://es.wired.com/articulos/documentan-por-primera-vez-que-la-ia-ya-puede-autorreplicarse-en-cadena-y-de-manera-autonoma?

https://www.wired.com/story/google-deepmind-workers-vote-to-unionize-over-military-ai-deals

https://www.wired.com/story/chatgpt-chinese-catch-you-steadily-sycophancy

https://es.wired.com/articulos/corea-del-sur-apuesta-por-la-convivencia-entre-humanos-y-robots-con-su-nuevo-monje-budista

https://www.wired.com/story/a-kid-with-a-fake-mustache-tricked-an-online-age-verification-tool

https://es.wired.com/articulos/anthropic-se-va-a-la-cama-con-spacex-y-la-carrera-por-la-ia-se-pone-rarisima

Table of Contents