Vótanos para los premios Ivoox, es lo más humano
En este episodio de AI IA HOY, nos adentramos en el nuevo y prometedor proyecto de Ilya Sutskever, ex jefe de seguridad de OpenAI, quien ha decidido lanzarse con su propia empresa dedicada a la creación de una «superinteligencia segura«. Pero ¿qué significa realmente este concepto? Y, sobre todo, ¿por qué dejó OpenAI para embarcarse en esta misión? Prepárate para una charla cargada de revelaciones y sorpresas.
Puntos clave:
- El nuevo proyecto de Ilya Sutskever: Safe Superintelligence Inc. (SSI) busca desarrollar la primera superinteligencia segura del mundo.
- ¿Por qué abandonó OpenAI? Los desacuerdos con Sam Altman sobre las estrategias de seguridad de la IA fueron claves en su decisión.
- ¿Quiénes lo acompañan? Un equipo de peso: Daniel Gross, ex Apple y Y Combinator, y Daniel Levi, ex ingeniero de OpenAI, unen fuerzas para esta misión crucial.
- ¿Qué podemos esperar de SSI? Un enfoque en la seguridad de la IA, similar a la seguridad nuclear, que evitará riesgos asociados con la inteligencia artificial avanzada.
- Inversores detrás de SSI: Capital de NGP y Khosla Ventures, entre otros. ¿Quiénes más se unirán?