La IA en Castellano, Únete al Rebaño

Vótanos para los premios Ivoox, es lo más humano

En este episodio de AI IA HOY, nos adentramos en el nuevo y prometedor proyecto de Ilya Sutskever, ex jefe de seguridad de OpenAI, quien ha decidido lanzarse con su propia empresa dedicada a la creación de una «superinteligencia segura«. Pero ¿qué significa realmente este concepto? Y, sobre todo, ¿por qué dejó OpenAI para embarcarse en esta misión? Prepárate para una charla cargada de revelaciones y sorpresas.

Puntos clave:

  • El nuevo proyecto de Ilya Sutskever: Safe Superintelligence Inc. (SSI) busca desarrollar la primera superinteligencia segura del mundo.
  • ¿Por qué abandonó OpenAI? Los desacuerdos con Sam Altman sobre las estrategias de seguridad de la IA fueron claves en su decisión.
  • ¿Quiénes lo acompañan? Un equipo de peso: Daniel Gross, ex Apple y Y Combinator, y Daniel Levi, ex ingeniero de OpenAI, unen fuerzas para esta misión crucial.
  • ¿Qué podemos esperar de SSI? Un enfoque en la seguridad de la IA, similar a la seguridad nuclear, que evitará riesgos asociados con la inteligencia artificial avanzada.
  • Inversores detrás de SSI: Capital de NGP y Khosla Ventures, entre otros. ¿Quiénes más se unirán?

Table of Contents