El asesor del grupo de trabajo de IA del primer ministro del Reino Unido dijo que los grandes modelos de IA necesitarían regulación y control en los próximos dos años para frenar los principales riesgos existenciales…

El asesor del grupo de trabajo de inteligencia artificial (IA) del primer ministro del Reino Unido dijo que los humanos tienen aproximadamente dos años para controlar y regular la IA antes de que se vuelva demasiado poderosa.
En una entrevista con un medio de comunicación local del Reino Unido, Matt Clifford, que también se desempeña como presidente de la Agencia de Investigación e Invención Avanzada (ARIA) del gobierno, hizo hincapié en que los sistemas actuales se están volviendo «cada vez más capaces a un ritmo cada vez mayor».
Continuó diciendo que si los funcionarios no consideran la seguridad y las regulaciones ahora, los sistemas se volverán «muy poderosos» en dos años.
«Tenemos dos años para establecer un marco que haga que el control y la regulación de estos modelos tan grandes sea mucho más posible de lo que es hoy en día».
Clifford advirtió que hay «muchos tipos diferentes de riesgos» cuando se trata de IA, tanto a corto como a largo plazo, lo que llamó «bastante aterrador».
La entrevista se produjo después de una reciente carta abierta publicada por el Centro para la Seguridad de la IA, firmada por 350 expertos en IA, incluido el CEO de OpenAI, Sam Altman, que decía que la IA debería ser tratada como una amenaza existencial similar a la que plantean las armas nucleares y las pandemias.
«Están hablando de lo que sucede una vez que creamos efectivamente una nueva especie, una especie de inteligencia que es más grande que la de los humanos».
El asesor del grupo de trabajo de IA dijo que estas amenazas planteadas por la IA podrían ser «muy peligrosas» y podrían «matar a muchos humanos, no a todos los humanos, simplemente desde donde esperábamos que fueran los modelos dentro de dos años».
Según Clifford, el enfoque principal de los reguladores y desarrolladores debe ser comprender cómo controlar los modelos y luego implementar regulaciones a escala global.
Por ahora, dijo que su mayor temor es la falta de comprensión de por qué los modelos de IA se comportan de la manera en que lo hacen.
«Las personas que están construyendo los sistemas más capaces admiten libremente que no entienden exactamente cómo [los sistemas de IA] exhiben los comportamientos que hacen».
Clifford destacó que muchos de los líderes de las organizaciones que construyen IA también están de acuerdo en que los poderosos modelos de IA deben someterse a algún tipo de proceso de auditoría y evaluación antes de la implementación.
Actualmente, los reguladores de todo el mundo están luchando por entender la tecnología y sus ramificaciones, al tiempo que intentan crear regulaciones que protejan a los usuarios y aún permitan la innovación.
El 5 de junio, los funcionarios de la Unión Europea fueron tan lejos como para sugerir que se ordene que todo el contenido generado por la IA se etiquetara como tal para evitar la desinformación.
En el Reino Unido, un miembro del banquillo del Partido Laborista de la oposición se hizo eco de los sentimientos mencionados en la carta del Centro para la Seguridad de la IA, diciendo que la tecnología debería estar regulada como la medicina y la energía nuclear.