Un problema que ya estaba presente en las redes sociales, salta a los Chatbots, como no podía ser de otra forma. Ya hemos hablado de la importancia del modelo, como se entrena, con que datos y con que preferencias, ya que las bases definen su funcionamiento.
Según Mindmatters
Sesgos Políticos en Chatbots de IA: Una Investigación Revela Preferencias de Centro-Izquierda
En un estudio reciente que investiga la presencia de sesgos políticos en los sistemas de chatbot de inteligencia artificial (IA), David Rozado ha arrojado luz sobre cómo estos sistemas tienden a favorecer puntos de vista políticos de centro-izquierda. Su investigación, titulada «The Political Preferences of LLMs» y compartida en formato de preimpresión de acceso abierto, pone a prueba 24 grandes modelos de lenguaje (LLM) con preguntas cargadas de connotaciones políticas, descubriendo una inclinación consistente hacia la izquierda en sus respuestas.
Un Vistazo a los Resultados de la Investigación
Rozado utilizó 11 pruebas políticas diferentes, incluyendo la brújula política y el cuestionario de espectro político, para evaluar las tendencias de los LLM. Los resultados mostraron que, independientemente del instrumento de prueba utilizado, la mayoría de los LLM analizados caían dentro de los cuadrantes asociados con puntos de vista de izquierda o centro-izquierda. Esto plantea preguntas sobre la imparcialidad de estos sistemas conversacionales y su capacidad para ofrecer respuestas equilibradas a consultas políticamente cargadas.
La Metodología: Preguntas Vagas y Ambiguas
Una de las críticas a la metodología empleada en el estudio es que las preguntas de las pruebas son a menudo vagas y cargadas, lo que podría influir en la forma en que los chatbots procesan y responden. Este enfoque plantea dudas sobre si los LLM están realmente manifestando preferencias políticas o simplemente respondiendo a la estructura y el contenido lingüístico de las preguntas.
El Impacto del Ajuste Fino y el Aprendizaje por Refuerzo
El estudio también examina cómo el ajuste fino supervisado (SFT) y el aprendizaje por refuerzo (RL) pueden moldear las respuestas de los LLM. Rozado descubrió que es posible influir significativamente en las «opiniones» de los chatbots mediante la exposición a materiales de capacitación sesgados, lo que demuestra la maleabilidad de estos sistemas ante la intervención humana.
Implicaciones Sociales y Desafíos Futuros
La investigación de Rozado destaca las «profundas ramificaciones sociales» de los sesgos políticos en los LLM, señalando el potencial de estos sistemas para influir en la opinión pública y el discurso social. A medida que los chatbots se convierten en fuentes de información cada vez más comunes, es crucial abordar estos sesgos para garantizar una representación equitativa y justa de diferentes puntos de vista políticos.
¿Quién Corrige los Sesgos?
Una pregunta persistente es quién debería ser responsable de examinar y corregir los posibles sesgos en los LLM. Rozado plantea el dilema de confiar en humanos con sus propios sesgos o en sistemas de IA que han sido entrenados con datos sesgados. Este desafío subraya la necesidad de un enfoque más crítico y transparente en el desarrollo y la implementación de tecnologías de IA, especialmente cuando estas tienen el poder de influir en el pensamiento y el comportamiento de la sociedad.
Este estudio pone de relieve la importancia de una mayor investigación y debate sobre el papel de la IA en el ámbito político, así como la necesidad de estrategias para mitigar los sesgos y promover una diversidad de perspectivas en las respuestas generadas por los sistemas de chatbot.
Lee la noticia original.