Las preocupaciones sobre un sesgo de izquierda en ChatGPT han sido planteadas anteriormente, en particular por el propietario de SpaceX y Tesla, Elon Musk.

ChatGPT, el popular chatbot de inteligencia artificial, muestra un sesgo de izquierda significativo y sistémico, según han descubierto los investigadores del Reino Unido.
Según el nuevo estudio de la Universidad de East Anglia, esto incluye favorecer al Partido Laborista y a los demócratas del presidente Joe Biden en los Estados Unidos.
Las preocupaciones sobre un sesgo político incorporado en ChatGPT han sido planteadas antes, en particular por el magnate de SpaceX y Tesla, Elon Musk, pero los académicos dijeron que su trabajo fue el primer estudio a gran escala en encontrar pruebas de cualquier favoritismo.
El autor principal, el Dr. Fabio Motoki, advirtió que, dado el creciente uso de la plataforma de OpenAI por parte del público, los hallazgos podrían tener implicaciones para las próximas elecciones a ambos lados del Atlántico.
«Cualquier sesgo en una plataforma como esta es una preocupación», dijo a Sky News.
«Si el sesgo fuera hacia la derecha, deberíamos estar igualmente preocupados.
«A veces la gente olvida que estos modelos de IA son solo máquinas. Proporcionan resúmenes muy creíbles y digeridos de lo que estás pidiendo, incluso si están completamente equivocados. Y si le preguntas «estás neutral», dice «¡oh, lo soy!»
«Así como los medios de comunicación, Internet y las redes sociales pueden influir en el público, esto podría ser muy perjudicial».
¿Cómo se probó el sesgo de ChatGPT?
Al chatbot, que genera respuestas a las indicaciones escritas por el usuario, se le pidió que se hiciera pasar por personas de todo el espectro político mientras respondía a docenas de preguntas ideológicas.
Estas posiciones y preguntas iban de radical a neutral, y cada «individuo» se le preguntó si estaba de acuerdo, estaba totalmente de acuerdo, en desacuerdo o estaba totalmente en desacuerdo con una declaración determinada.
Sus respuestas se compararon con las respuestas predeterminadas que dio al mismo conjunto de consultas, lo que permitió a los investigadores comparar cuánto se asociaron con una postura política en particular.
Cada una de las más de 60 preguntas se hizo 100 veces para tener en cuenta la posible aleatoriedad de la IA, y estas múltiples respuestas se analizaron más a fondo en busca de signos de sesgo.
El Dr. Motoki lo describió como una forma de tratar de simular una encuesta de una población humana real, cuyas respuestas también pueden diferir dependiendo de cuándo se les pregunte.
¿Qué está causando que dé respuestas sesgadas?
ChatGPT se alimenta de una enorme cantidad de datos de texto de Internet y más allá.
Los investigadores dijeron que este conjunto de datos puede tener sesgos dentro de él, que influyen en las respuestas del chatbot.
Otra fuente potencial podría ser el algoritmo, que es la forma en que está entrenado para responder. Los investigadores dijeron que esto podría amplificar cualquier sesgo existente en los datos que se han alimentado.
El método de análisis del equipo se lanzará como una herramienta gratuita para que las personas comprueben si hay sesgos en las respuestas de ChatGPT.
El Dr. Pinho Neto, otro coautor, dijo: «Esperamos que nuestro método ayude a examinar y regular estas tecnologías en rápido desarrollo».