Podcast, «The Ezra Klein Show«

En esta extensa entrevista, Dario Amodei, cofundador de Anthropic, comparte su visión sobre el desarrollo y la implementación segura de la inteligencia artificial. Ezra Klein, destacado periodista y fundador de Vox (un medio de comunicación en línea que se centra en proporcionar explicaciones claras y detalladas de temas de actualidad y políticas complejas), aborda temas críticos que están modelando el futuro de la tecnología. A continuación, se presenta la entrevista resumida, donde Amodei explora desde la evolución de los modelos de IA hasta las implicaciones geopolíticas y éticas de estos avances.

Mis colegas y yo fuimos de los primeros en ejecutar lo que se llama leyes de escalado, que básicamente estudian lo que sucede a medida que varía el tamaño del modelo, su capacidad para absorber información y la cantidad de datos que se introducen en él. Y encontramos estos patrones muy suaves. Y teníamos esta proyección de que, miren, si gastan 100 millones de dólares o 1.000 millones de dólares o 10.000 millones de dólares en estos modelos, en lugar de los 10.000 dólares que gastábamos entonces, las proyecciones de que todas estas cosas maravillosas sucederían, y nos imaginamos que tendrían un enorme valor económico.

Avancemos hasta aproximadamente 2020. GPT-3 acababa de salir. Todavía no estaba disponible como bot de chat. Lideré el desarrollo de eso junto con el equipo que finalmente se fue para unirse a Anthropic. Y tal vez durante todo el período de 2021 y 2022, a pesar de que continuamos entrenando modelos que eran cada vez mejores, y OpenAI continuó entrenando modelos, y Google continuó entrenando modelos, hubo sorprendentemente poca atención pública.

Una cosa que me gusta decir es la tecnología subyacente, porque es una exponencial suave, no es perfectamente predecible, pero de alguna manera, se puede predecir, Eso no es cierto para estas funciones sociales en absoluto. Es muy difícil predecir lo que se pondrá de moda. De alguna manera, se siente un poco como qué artista o músico se va a poner de moda y llegar a la cima de las listas de éxitos.

ya hemos visto algo de eso con Claude 3, donde la gente siente que algunos de los otros modelos suenan como un robot y que hablar con Claude 3 es más natural.

Creo que una cosa relacionada con esto es que muchas empresas se han visto frenadas o se han tropezado con la forma en que sus modelos manejan temas controvertidos. Sé que, básicamente, todas las grandes empresas que trabajan en IA están trabajando en eso.

En lugar de simplemente, le hago una pregunta y responde, y luego tal vez hago un seguimiento y responde de nuevo, ¿puedo hablar con el modelo sobre, oh, voy a hacer este viaje hoy, y el modelo dice, oh, eso es genial? Conseguiré un Uber para que conduzcas de aquí para allá y reservaré un restaurante. Y hablaré con las otras personas que van a planear el viaje. Y el modelo es capaz de hacer cosas de principio a fin o ir a sitios web o realizar acciones en tu ordenador por ti.

Creo que todo eso vendrá en los próximos tres a 18 meses, con niveles crecientes de habilidad. Creo que eso va a cambiar la forma en que la gente piensa sobre la IA, donde hasta ahora, ha sido muy pasivo, es como, voy al Oráculo. Le hago una pregunta y el Oráculo me dice cosas. Y algunas personas piensan que eso es emocionante, otras piensan que es aterrador.

Una anécdota que tengo de cuando estábamos desarrollando modelos en 2022, y esto es antes de que hubiéramos conectado los modelos a nada, es que podías tener una conversación con estos modelos puramente textuales en la que podías decir, oye, quiero reservar

una cena en el restaurante X de San Francisco, y la modelo decía: Bien, aquí está el sitio web del restaurante X. Y en realidad te daría un sitio web correcto o te diría que vayas a Open Table o algo así.

Y, por supuesto, no puede ir al sitio web. El enchufe de alimentación en realidad no está enchufado, ¿verdad? El cerebro del robot en realidad no está unido a sus brazos y piernas. Pero te dio la sensación de que el cerebro, todo lo que necesitaba hacer era aprender exactamente cómo usar los brazos y las piernas, ¿verdad? Ya tenía una imagen del mundo y de dónde caminaría y qué haría. Y así, parecía que había una barrera muy delgada entre los modelos pasivos que teníamos y los que realmente actuaban en el mundo.

En términos de lo que necesitamos para que funcione, solo es una cosa, literalmente, solo necesitamos un poco más de escala. Y creo que la razón por la que vamos a necesitar más escala es que, para hacer una de esas cosas que describiste, para hacer todas las cosas que hace un ingeniero de software junior, implican cadenas de acciones largas.

Y entonces, mi conjetura, no estoy seguro, es que para que estas cosas realmente funcionen bien, necesitamos tal vez de en 3 a 24 meses o algo así.

Creo que lo segundo es que hay que hacer un trabajo algorítmico sobre cómo hacer que los modelos interactúen con el mundo de esta manera. Creo que las técnicas básicas que tenemos, un método llamado aprendizaje por refuerzo y sus variaciones, probablemente estén a la altura de la tarea, pero averiguar exactamente cómo usarlo para obtener los resultados que queremos probablemente llevará algún tiempo.

Y luego, en tercer lugar, creo, y esto nos lleva a algo en lo que Anthropic realmente se especializa, es la seguridad y la capacidad de control. Y creo que eso va a ser un gran problema para estos modelos que actúan en el mundo, ¿verdad? Digamos que este modelo está escribiendo código para mí, e introduce un error de seguridad grave en el código, o está tomando acciones en la computadora por mí y modificando el estado de mi computadora de maneras que son demasiado complicadas para que yo las entienda.

Por lo tanto, vamos a tener que averiguar qué es seguro y controlable. Cuanto más abierta es la cosa, más poderosa es, pero también, más peligrosa es y más difícil es controlarla.

Así que creo que esas preguntas, aunque suenen elevadas y abstractas, se van a convertir en preguntas prácticas sobre productos que nosotros y otras empresas vamos a tratar de abordar.

Vamos a tener que hacer modelos más grandes que usen más computación por iteración. Vamos a tener que ejecutarlos durante más tiempo alimentándolos con más datos.

Y ese número de chips multiplicado por la cantidad de tiempo que ejecutamos las cosas en chips es esencialmente valor en dólares porque estos chips son, los alquilas por hora.

Ese es el modelo más común para ello. Y así, los modelos actuales cuestan del orden de 100 millones de dólares para entrenar, más o menos.

Los modelos que están en entrenamiento ahora y que saldrán en varios momentos a finales de este año o principios del próximo tienen un costo más cercano a los 1.000 millones de dólares.

Así que eso ya está ocurriendo. Y luego creo que en 2025 y 2026, obtendremos más de 5 o 10 mil millones de dólares.

Es intelectualmente honesto decir que la construcción de modelos a gran escala, la ingeniería del modelo básico de base, se está volviendo cada vez más caro. Y cualquiera que quiera construir uno va a tener que encontrar alguna forma de financiarlo. Y la mayoría de las formas, ¿verdad? Puedes ser una gran empresa. Puede tener algún tipo de asociación de varios tipos con una gran empresa. O los gobiernos serían la otra fuente.

Creo que siempre vamos a tener un ecosistema próspero de experimentación con modelos pequeños. Por ejemplo, la comunidad de código abierto que trabaja para crear modelos que sean lo más pequeños y eficientes posible que estén optimizados para un caso de uso particular.

Y también el uso posterior de los modelos. Es decir, hay un e

cosistema floreciente de startups que no necesitan entrenar estos modelos desde cero. Solo necesitan consumirlos y tal vez modificarlos un poco.

Debemos tener en cuenta que la cosecha actual de IA que existen, ¿verdad?, incluidos Claude 3, GPT, Gemini, todos están entrenados con alguna variante de lo que se llama aprendizaje por refuerzo a partir de la retroalimentación humana.

Deberíamos pensar en general. Los humanos somos generales. El cerebro humano parece ser general. Parece obtener mucho kilometraje al generalizar. Deberías ir en esa dirección.

Me siento así con respecto a A.G.I. Ahora tenemos sistemas muy generales. En cierto modo, son mejores que los humanos. De alguna manera, son peores. Hay una serie de cosas que no pueden hacer en absoluto. Y aún queda mucho por mejorar. Así que en lo que creo es en esto que digo como un disco rayado, que es la curva exponencial. Y así, esa marea general va a aumentar con cada generación de modelos.

Al igual que los bots de chat se volvieron interesantes en cierta etapa de la exponencial, a pesar de que la mejora fue suave, creo que en algún momento, los biólogos se sentarán y tomarán nota, mucho más de lo que ya lo han hecho, y dirán, oh, Dios mío, ahora nuestro campo se está moviendo tres veces más rápido que antes. Y ahora se mueve 10 veces más rápido que antes. Y de nuevo, cuando llegue ese momento, van a pasar grandes cosas.

Y ya hemos visto pequeños indicios de eso con cosas como AlphaFold, por el que tengo un gran respeto. Me inspiré en AlphaFold, ¿verdad? Un uso directo de la IA para hacer avanzar la ciencia biológica, que hará avanzar la ciencia básica. A largo plazo, eso hará avanzar la cura de todo tipo de enfermedades. Pero creo que lo que necesitamos son como 100 AlphaFolds diferentes. Y creo que, en última instancia, la forma en que lo conseguiremos es haciendo que los modelos sean más inteligentes y poniéndolos en una posición en la que puedan diseñar el próximo AlphaFold.

Pero cuando la IA pueda pensar en todo el proceso, tal vez se les ocurran soluciones que aún no tenemos. En muchos casos, hay empresas que trabajan en gemelos digitales o simulando ensayos clínicos o cosas varias. Y de nuevo, tal vez haya ideas inteligentes que nos permitan hacer más con menos paciencia.

Estábamos interesados en la eficacia de Claude 3 Opus, que es la versión más grande de Claude 3, para cambiar la opinión de la gente sobre temas importantes. Así que, para que quede claro desde el principio, en el uso comercial real, hemos tratado de prohibir el uso de estos modelos para la persuasión, para hacer campañas, para hacer lobby, para hacer campaña electoral. Estos no son casos de uso con los que nos sintamos cómodos por razones que creo que deberían estar claras. Pero todavía estamos interesados en saber si el modelo central en sí mismo es capaz de realizar tales tareas.

Algún día en el futuro, ¿tendremos que preocuparnos por su uso para campañas políticas, para publicidad engañosa? Una de las cosas más de ciencia ficción en las que pensar es que dentro de unos años, tenemos que preocuparnos de que alguien use un sistema de inteligencia artificial para construir una religión o algo así. Quiero decir, cosas locas como esa.

Si pienso en un entrenador de IA o un asistente de IA de un terapeuta, hay muchos contextos en los que realmente entrar en los detalles con la persona tiene mucho valor. Pero bueno, cuando pensamos en la persuasión política, religiosa o ideológica, es difícil no pensar en ese contexto en los malos usos.

Mi mente naturalmente se dirige a que la tecnología se está desarrollando muy rápido. Nosotros, como empresa, podemos prohibir estos casos de uso en particular, pero no podemos hacer que todas las empresas no los hagan. Incluso si se aprobara una legislación en los Estados Unidos, hay actores extranjeros que tienen su propia versión de esta persuasión, ¿verdad? Si pienso en lo que los modelos lingüísticos serán capaces de hacer en el futuro, eso puede ser bastante aterrador desde una perspectiva de espionaje extranjero y

campañas de desinformación.

Todos podemos pensar en una persona en nuestras vidas que es realmente buena para decir cosas que suenan muy bien y muy sofisticadas y que son falsas.

Pero no es tan común, ¿verdad? Si entro en Internet y veo diferentes comentarios en algún blog o en algún sitio web, hay una correlación entre la mala gramática, los pensamientos mal expresados y las cosas que son falsas, frente a la buena gramática, los pensamientos claramente expresados y las cosas que tienen más probabilidades de ser precisas.

Desafortunadamente, la IA rompe esa correlación porque si le pides explícitamente que sea engañosa, es igual de erudita. Suena tan convincente como lo habría sido antes. Y, sin embargo, está diciendo cosas que son falsas, en lugar de cosas que son verdaderas.

Así que esa sería una de las cosas en las que pensar y tener en cuenta en términos de romper la heurística habitual de que los humanos tienen para detectar el engaño y la mentira. Por supuesto, a veces, los humanos lo hacen, ¿verdad? Quiero decir, hay psicópatas y sociópatas en el mundo, pero incluso ellos tienen sus patrones, y las IA pueden tener diferentes patrones.

Tenemos equipos muy importantes que intentan centrarse en asegurarse de que los modelos sean precisos en cuanto a los hechos, que digan la verdad, que basen sus datos en información externa.

Una fuente de esperanza que tengo, en realidad, es que dices que estos modelos no saben si están mintiendo o están diciendo la verdad. En cuanto a las entradas y salidas de los modelos, eso es absolutamente cierto. Quiero decir, hay una pregunta de qué significa para un modelo saber algo, pero una de las cosas en las que Anthropic ha estado trabajando desde el comienzo de nuestra empresa, hemos tenido un equipo que se enfoca en tratar de entender y mirar dentro de los modelos.

Y una de las cosas que nosotros y otros hemos encontrado es que, a veces, hay neuronas específicas, indicadores estadísticos específicos dentro del modelo, no necesariamente en sus respuestas externas, que pueden decirte cuándo el modelo está mintiendo o cuándo está diciendo la verdad.

Y así, en algún nivel, a veces, no en todas las circunstancias, las modelos parecen saber cuándo están diciendo algo falso y cuándo están diciendo algo verdadero. No diría que los modelos están siendo intencionalmente engañosos, ¿verdad? Yo no les atribuiría agencia o motivación, al menos en esta etapa en la que nos encontramos con los sistemas de IA. Pero parece que está sucediendo algo en lo que los modelos parecen necesitar tener una imagen del mundo y hacer una distinción entre las cosas que son verdaderas y las que no lo son.

Si piensas en cómo se entrenan los modelos, leen un montón de cosas en Internet. Mucho de eso es cierto. Algo de eso, más de lo que nos gustaría, es falso. Y cuando se entrena el modelo, tiene que modelarlo todo. Por lo tanto, creo que es parsimonioso, creo que es útil para la imagen del mundo de los modelos que sepa cuándo las cosas son verdaderas y que sepa cuándo las cosas son falsas.

En cuanto a la interpretabilidad, estamos viendo un progreso sustancial en la capacidad de caracterizar, yo diría, tal vez la generación de modelos de hace seis meses. Creo que no es desesperanzador, y vemos un camino. Dicho esto, comparto su preocupación por el hecho de que el campo está progresando muy rápidamente en relación con eso.

Y estamos tratando de poner tantos recursos en la interpretabilidad como sea posible. Uno de nuestros cofundadores fundó básicamente el campo de la interpretabilidad. Pero también, tenemos que mantenernos al día con el mercado. Así que todo esto es en gran medida un dilema, ¿verdad? Incluso si nos detuviéramos, entonces están todas estas otras compañías en los EE. UU. E incluso si alguna ley detuviera a todas las empresas en los EE. UU., hay todo un mundo de esto.

Soy escéptico de que tengamos que hacer algo totalmente diferente. Así que creo que hoy en día, mucha gente tiene la intuición de que los modelos se están comiendo los datos que se han recopil

ado de Internet, repositorios de código, lo que sea, y los escupen de forma inteligente, pero los están escupiendo. Y a veces eso lleva a la opinión de que los modelos no pueden ser mejores que los datos con los que se entrenan o que no pueden averiguar nada que no esté en los datos con los que se entrenan. No vas a llegar al nivel de física de Einstein o al nivel de química de Linus Pauling o lo que sea.

Creo que todavía estamos en la parte de la curva en la que es posible creer eso, aunque creo que estamos viendo los primeros indicios de que es falso. Y así, como ejemplo concreto de esto, los modelos que hemos entrenado, como Claude 3 Opus, tienen una precisión del 99,9 por ciento, al menos el modelo base, en la suma de números de 20 dígitos. Si nos fijamos en los datos de entrenamiento en Internet, no son tan precisos a la hora de sumar números de 20 dígitos. Encontrarás aritmética inexacta en Internet todo el tiempo, al igual que encontrarás opiniones políticas inexactas. Encontrarás vistas técnicas inexactas. Vas a encontrar muchas afirmaciones inexactas.

Pero los modelos, a pesar del hecho de que están equivocados en un montón de cosas, a menudo pueden funcionar mejor que el promedio de los datos que ven, no quiero llamarlo promediar errores, pero hay algo de verdad subyacente, como en el caso de la aritmética. Hay un algoritmo subyacente que se utiliza para sumar los números.

A finales del año pasado, lanzamos algo llamado plan de escalamiento responsable. Así que la idea es llegar a estos umbrales para que un sistema de IA sea capaz de ciertas cosas. Tenemos lo que llamamos niveles de seguridad de IA que, en analogía con los niveles de bioseguridad, que son como, clasifican qué tan peligroso es un virus y, por lo tanto, qué protocolos hay que tomar para contenerlo, actualmente estamos en lo que describimos como A.S.L. 2.

A.S.L. 3 está vinculado a ciertos riesgos en torno al modelo de mal uso de la biología y la capacidad de realizar ciertas tareas cibernéticas de una manera que podría ser destructiva. A.S.L. 4 va a cubrir cosas como la autonomía, cosas como probablemente la persuasión, de las que hemos hablado mucho antes. Y en cada nivel, especificamos una cierta cantidad de investigación de seguridad que tenemos que hacer, una cierta cantidad de pruebas que tenemos que pasar.

Y así, esto nos permite tener un marco para, bueno, ¿cuándo deberíamos reducir la velocidad? ¿Deberíamos ir más despacio ahora? ¿Y el resto del mercado?

OpenAI salió con algo similar. Le dieron un nombre diferente, pero tiene muchas propiedades en común. El jefe de DeepMind en Google dijo que estamos trabajando en un marco similar. Y he escuchado informalmente que Microsoft podría estar trabajando en un marco similar. Ahora bien, no se trata de todos los actores del ecosistema, pero probablemente hayas pensado en la historia de la regulación y la seguridad en otras industrias, tal vez más que yo.

Esta es la forma de llegar a un régimen regulatorio viable. Las empresas comienzan a hacer algo, y cuando la mayoría de ellas están haciendo algo, entonces los actores del gobierno pueden tener la confianza de decir, bueno, esto no matará a la industria. Las empresas ya se están involucrando en esto. No tenemos que diseñar esto desde cero.

Y estamos empezando a verlo. Se han propuesto proyectos de ley que se parecen un poco a nuestro plan de escalamiento responsable. Dicho esto, no resuelve completamente el problema de, digamos, que llegamos a uno de estos umbrales y necesitamos entender lo que está sucediendo dentro del modelo. Y no lo hacemos, y la receta es, OK, tenemos que dejar de desarrollar los modelos durante algún tiempo.

Así que no me siento perfectamente satisfecho con este enfoque porque creo que nos da algo de tiempo, pero vamos a tener que combinarlo con un esfuerzo increíblemente fuerte para entender lo que está sucediendo dentro de los modelos.

Todas las cosas que has dicho son ciertas a la vez, ¿verdad? No es necesario que haya una

historia fácil de por qué deberíamos hacer X o por qué deberíamos hacer Y, ¿verdad? Puede ser cierto al mismo tiempo que para hacer una investigación de seguridad efectiva, es necesario hacer los modelos más grandes, y que si no hacemos modelos, alguien menos seguro lo hará. Y al mismo tiempo, podemos quedar atrapados en esta mala dinámica a nivel nacional e internacional. Así que creo que no son contradictorios, sino que crean un panorama difícil por el que tenemos que navegar.

Tengo un pensamiento y realmente quiero seguir adelante con respecto a los R.S.P.s.

Plan de Escalamiento Responsable, de lo que hablaba antes. Los niveles de seguridad de la IA y, en particular, vincular las decisiones de pausar el escalado a la medición de peligros específicos o la ausencia de la capacidad de mostrar seguridad o la presencia de ciertas capacidades. Una forma de pensarlo es que, al final del día, esto es, en última instancia, un ejercicio para lograr que una coalición se sume a hacer algo que vaya en contra de las presiones económicas.

Creo que lo que podría ser más convincente es vincular la decisión de contenerse de una manera muy amplia que se hace en toda la industria con peligros particulares.

Soy alguien que piensa que los beneficios de esta tecnología van a superar sus costos. Y creo que la idea detrás de RSP es prepararse para presentar ese caso, si los peligros son reales. Si no son reales, entonces podemos proceder y hacer cosas que sean grandiosas y maravillosas para el mundo. Y, por lo tanto, tiene la flexibilidad de funcionar en ambos sentidos.

De nuevo, no creo que sea perfecto. Soy alguien que piensa que hagamos lo que hagamos, incluso con todo el marco regulatorio, dudo que podamos frenar tanto. Pero cuando pienso en cuál es la mejor manera de tomar un rumbo sensato aquí, eso es lo más cercano que se me ocurre en este momento. Probablemente haya un plan mejor en alguna parte, pero eso es lo mejor que se me ha ocurrido hasta ahora.

Creo es que el gobierno debería involucrarse más en el uso y el ajuste fino de estos modelos, y que implementarlos dentro del gobierno ayudará a los gobiernos, especialmente al gobierno de los Estados Unidos, pero también a otros, a comprender las fortalezas y debilidades, los beneficios y los peligros. Así que soy muy partidario de eso.

Estamos en A.S.L. 2 en nuestro plan de escalado responsable. Este tipo de cuestiones, creo que se van a convertir en un asunto serio cuando lleguemos, digamos, a A.S.L. 4. Así que esa no es una fecha y hora. Ni siquiera hemos especificado completamente A.S.L. 4 —

A.S.L. 4 va a ser más sobre el uso indebido, en permitir que los actores a nivel estatal aumenten en gran medida su capacidad, lo cual es mucho más difícil que permitir que personas al azar. Por lo tanto, nos preocuparía que Corea del Norte, China o Rusia pudieran mejorar en gran medida sus capacidades ofensivas en varias áreas militares con inteligencia artificial de una manera que les daría una ventaja sustancial a nivel geopolítico. Y en cuanto a la autonomía, varias medidas de estos modelos están bastante cerca de poder replicarse y sobrevivir en la naturaleza.

Creo que A.S.L. 4 podría ocurrir entre 2025 y 2028.

No estoy hablando de 50 años de distancia.

Creo que este puede terminar siendo el mayor problema geopolítico de nuestro tiempo.

Y hombre, esto se relaciona con cosas que están muy por encima de mi nivel salarial, que son decisiones militares sobre si defender Taiwán y cómo. Todo lo que puedo hacer es decir cuáles creo que son las implicaciones para la IA. Creo que esas implicaciones son bastante claras.

Espero que haya una gran crisis de suministro en torno a los centros de datos, en torno a los chips, y en torno a la energía, tanto por razones regulatorias como físicas, en algún momento de los próximos años. Y eso es un riesgo, pero también es una oportunidad. Creo que es una oportunidad para pensar en cómo se puede gobernar la tecnología.

Y también es una oportunidad, lo repito de nuevo, para pensar en cómo pueden liderar

las democracias. Creo que sería muy peligroso que los líderes en esta tecnología y los poseedores de los principales recursos fueran países autoritarios. La combinación de inteligencia artificial y autoritarismo, tanto a nivel interno como internacional, es muy aterradora para mí.

Tal vez la IA hace que la energía solar sea más eficiente o tal vez resuelva la fusión nuclear controlada, o tal vez haga que la geoingeniería sea más estable o posible. Pero no creo que tengamos que confiar en el largo plazo. Hay algunas aplicaciones en las que el modelo está haciendo algo que antes estaba automatizado, que antes lo hacían los sistemas informáticos. Y el modelo es capaz de hacerlo más rápido con menos tiempo de cómputo, ¿verdad? Esas son victorias puras.

Creo que tenemos un problema más amplio, que es que, independientemente de cómo se haya entrenado, seguiría siendo el caso de que estamos construyendo sistemas cognitivos cada vez más generales, y que esos sistemas crearán disrupción. Tal vez no necesariamente reemplazando a los humanos uno por uno, pero realmente van a cambiar la forma en que funciona la economía y qué habilidades se valoran. Y necesitamos una solución a ese amplio problema macroeconómico, ¿verdad?

Pero creo que hay una pregunta más profunda aquí, que es como si los sistemas de IA se volvieran capaces de porciones cada vez más grandes de trabajo cognitivo, ¿cómo se organiza económicamente la sociedad? ¿Cómo encuentra la gente el trabajo y el sentido y todo eso?

La gente tiene que criar a sus hijos, y tienen que hacerlo lo mejor que puedan. Una recomendación obvia es simplemente familiarizarse con la tecnología y cómo funciona, ¿verdad?

En términos de lo que los niños deben aprender en la escuela, cuáles son las carreras del mañana, realmente no lo sé, ¿verdad? Podrías tomar esto como decir, bueno, es importante aprender STEM y programación e inteligencia artificial y todo eso. Pero la IA también tendrá un impacto en eso, ¿verdad? No creo que nada de eso vaya a funcionar para ninguno de estos sistemas hacer uno por uno lo que los humanos van a hacer. Realmente no pienso de esa manera. Pero creo que puede cambiar fundamentalmente las industrias y profesiones una por una de maneras que son difíciles de predecir. Y así, siento que solo tengo clichés aquí. Como familiarizarse con la tecnología. Enseñe a sus hijos a ser adaptables, a estar preparados para un mundo que cambia muy rápidamente. Ojalá tuviera mejores respuestas, pero creo que eso es lo mejor que obtuve.

DARIO AMODEI

Es un libro muy largo. El libro físico es muy grueso, pero «The Making of the Atomic Bomb», Richard Rhodes. Es un ejemplo de tecnología que se está desarrollando muy rápidamente y con implicaciones muy amplias. Basta con mirar a todos los personajes y cómo reaccionaron a esto y cómo las personas que eran básicamente científicos se dieron cuenta gradualmente de las increíbles implicaciones de la tecnología y cómo los llevaría a un mundo que era muy diferente al que estaban acostumbrados.


Si quieres leer la transcripción completa del artículo la tienes aquí.