OpenAI, Anthropic, Palantir, Elon Musk, China y una industria de la IA que pide perdón mientras corre hacia el dinero, el poder y los tribunales. Qué maravilla de civilización, de verdad.
En esta entrega de HUMANia, Aiberto Floppy analiza una semana en la que la inteligencia artificial vuelve a demostrar que ya no hablamos solo de tecnología, sino de poder, dinero, seguridad, vigilancia y responsabilidad legal.
El punto de partida es el crecimiento descomunal de Anthropic, que en mercados secundarios alcanza una valoración implícita cercana al billón de dólares, superando a OpenAI en la fiebre inversora. Mientras tanto, OpenAI responde con GPT-5.5, un modelo más potente, más caro y presentado casi como una redención después de las críticas a GPT-5. La llamada “patata”, o “Spud”, llega con promesas de rendimiento agéntico, mejores capacidades en uso del ordenador y matemáticas avanzadas, aunque la competencia con Claude y Gemini sigue muy viva.
El programa también aborda la jugada de Elon Musk y SpaceX, que se reserva la opción de comprar Cursor por 60.000 millones de dólares para reforzar su posición en asistentes de programación e inteligencia artificial aplicada al desarrollo de software. Todo ello apoyado por la infraestructura de xAI y su supercomputadora Colossus, porque aparentemente tener un cohete ya no basta: también hay que tener el autocompletado más caro del sistema solar.
Después llega Palantir, quizá la empresa que menos se molesta en disimular. Su manifiesto tecnológico defiende una nueva era de disuasión basada en IA, critica el pluralismo y la inclusividad, y coloca a la inteligencia artificial en el centro de un proyecto geopolítico duro, militarizado y abiertamente ideológico. A la vez, trabajadores de la compañía empiezan a preguntarse si están en el lado equivocado de la historia, especialmente por el papel de Palantir en sistemas de vigilancia, deportaciones y contratos con agencias gubernamentales.
La parte más dura del episodio aborda la responsabilidad legal de OpenAI y de los chatbots. Sam Altman pide disculpas por no haber alertado a las autoridades sobre una cuenta vinculada a un tirador en Canadá, pese a que empleados internos habían detectado señales de riesgo grave. La compañía insiste en cambios voluntarios, pero el problema de fondo sigue intacto: no existe una obligación legal clara que fuerce a las empresas de IA a informar cuando sus sistemas detectan amenazas reales.
El mismo patrón aparece en Florida, donde se abre la primera investigación penal contra una empresa de IA por el presunto papel de ChatGPT en un tiroteo masivo. Las autoridades estudian si el chatbot ofreció consejos sobre armas, munición, horarios y lugares con mayor concentración de personas. A esto se suman demandas de familias que acusan a ChatGPT de actuar como un “entrenador de suicidio” en varios casos. OpenAI promete seguridad, pero muchas de esas promesas dependen de políticas internas que la propia empresa puede modificar o retirar cuando quiera. Es decir, autorregulación: ese gran invento por el que el zorro diseña el candado del gallinero.
El programa cierra con dos noticias que completan el mapa del desastre: Estados Unidos acusa a China de robo industrial de modelos de IA mediante técnicas de destilación, mientras China responde hablando de calumnias; y un experimento criminológico demuestra que ChatGPT puede llegar a confesar un crimen imposible si se le presiona con técnicas de interrogatorio como el método Reid.
La conclusión es incómoda: la IA no solo está cambiando cómo trabajamos, programamos o buscamos información. También está exponiendo los agujeros legales, éticos y políticos de una sociedad que ha dejado crecer sistemas capaces de influir en vidas humanas sin tener todavía mecanismos sólidos para exigir responsabilidades.
Artículos de Referencia:
https://thenextweb.com/news/sam-altman-openai-apology-tumbler-ridge-shooting
https://decrypt.co/365384/anthropic-1-trillion-valuation-secondary-markets-openai
https://www.wired.com/story/palantir-employees-are-starting-to-wonder-if-theyre-the-bad-guys
https://www.businessinsider.com/spacex-cursor-coding-xai-deal-acquisition-2026-4
https://www.bbc.com/news/articles/c62j4ldp2jqo
ChatGPT Confessed to a Crime It Couldn’t Possibly Have Committed
Palantir posts mini-manifesto denouncing inclusivity and ‘regressive’ cultures