GPT se hace mayor.

OpenAI empezó como una empresa cuyo fin último era difundir y poner al alcance de todos el maravilloso mundo de la IA, sin animo de lucro. Luego, alegando problemas de seguridad, pasaron a cerrar el código (y así poder recibir 10.000 kilitos de Microsoft). Ahora, un pasito más. Wellcome navy!

Antes de hacerse mayor…

Oh, ¡qué sorpresa nos hemos llevado! Parece que OpenAI ha actualizado su política de uso y, ¡oh casualidad!, ahora ha dejado de mencionar explícitamente la prohibición de aplicaciones militares. Claro, porque cuando uno dice que no se debe usar la tecnología para «dañar a otros», seguramente se refieren a que no se deben lanzar tweets ofensivos, y no tiene nada que ver con misiles inteligentes o drones autónomos, ¿verdad?

Ahora que está crecidito…

¡Ay, OpenAI! Con el cambio de unas palabritas aquí y allá, han abierto la puerta de par en par a la especulación. Se han evaporado las palabras «militar y guerra» como por arte de magia, pero no te preocupes, según ellos, es para ser «más claros«. Sí, claro, claro.

Vamos a ver, no es que estemos jugando al escondite aquí. Cuando uno elimina la palabra «militar» de su política de uso, pero deja abierta la posibilidad de «no hacer daño«, uno no puede evitar preguntarse: ¿Qué tipo de malabares lingüísticos son estos? ¿Es una clase de yoga para palabras? ¿Es GPT un experto en estirar y doblar palabras hasta que significan lo que uno quiere que signifiquen?

No nos hagamos los sorprendidos. El Departamento de Defensa no solo está en el negocio de las armas. Hay mucha tela que cortar en el mundo de la investigación, desarrollo e, incluso, en el apoyo a pequeñas empresas e infraestructuras. Y aquí es donde OpenAI ve una oportunidad de oro. Después de todo, alega GPT ¿quién no querría que una inteligencia artificial les resumiera décadas de documentación sobre, digamos, la infraestructura hídrica de una región?

Sí, porque eso suena mucho menos peligroso que decir que desarrollarán la próxima generación de tecnología militar, supongamos.

Pero aún hay más. Parece que OpenAI ha hecho oídos sordos cuando se les ha preguntado directamente sobre esta apertura a los clientes militares. El silencio es ensordecedor, amigos míos. ¿Será que están ocupados revisando el manual de «Cómo no confirmar algo sin negarlo realmente»? O tal vez es que están practicando su mejor cara de póker para la próxima ronda de preguntas.

Entonces, ¿dónde trazamos la línea? Es una verdadera comedia de enredos definir la relación entre tecnología, gobierno y uso militar. Google ya nos dio una función previa con su «Project Maven«, que resultó ser más controvertido que una telenovela turca en prime time. Por supuesto, menos personas se molestaron por el contrato de la nube JEDI (Joint Enterprise Defense Infrastructure, olvídate de Star Wars), de unos cuantos miles de millones de dólares. ¿Quién necesita coherencia cuando hay tanto dinero en juego?

Lo que es seguro es que OpenAI ha decidido que su política sea tan amplia que cabría un portaaviones en ella. (Para qué no digamos qué no es open)

¿Estarán esperando a que alguien les pase el manual de «Ética para principiantes» o simplemente están jugando al ajedrez estratégico con sus términos y condiciones?

En cualquier caso, mientras OpenAI juega al misterio, el resto del mundo se queda especulando. Y, en algún lugar, un algoritmo de IA debe estar rascándose la cabeza (si tuviera una), preguntándose si su próximo trabajo será optimizar rutas de reparto de pizza o calcular trayectorias balísticas.

En resumen, queridos lectores, la próxima vez que OpenAI haga un cambio en su política de uso, tal vez deberíamos preguntarles si han considerado añadir un pequeño asterisco que diga: «Términos y condiciones sujetos a cambios según la dirección del viento y las grandes oportunidades«. Ahora, si me disculpan, voy a actualizar mi lista de «cosas que no esperaba en 2024», justo después de «aprender TikTok dances» y antes de «hacer pan casero. De nuevo».

Lo que si podéis esperar este año, son noticias IA, aquí en AIAprendí. Vuelva usted mañana.