Las voces generadas por la IA en las llamadas automáticas pueden engañar a los votantes. La FCC acaba de hacerlos ilegales. https://t.me/QAnons_Espana

La Comisión Federal de Comunicaciones eliminó el jueves las llamadas automáticas que contienen voces generadas por la inteligencia artificial, una decisión que envía un mensaje claro de que la explotación de la tecnología para estafar a la gente y engañar a los votantes no será tolerada.

El fallo unánime tiene como objetivo las llamadas automáticas realizadas con herramientas de clonación de voz de IA bajo la Ley de Protección del Consumidor Telefónico, una ley de 1991 que restringe las llamadas no deseadas que utilizan mensajes de voz artificiales y pregrabados.

El anuncio se produce mientras las autoridades de New Hampshire están avanzando en su investigación sobre las llamadas automáticas generadas por la IA que imitaron la voz del presidente Joe Biden para disuadir a la gente de votar en las primeras primarias del estado en la nación el mes pasado.

Con efecto inmediato, la regulación faculta a la FCC para multar a las empresas que utilizan voces de IA en sus llamadas o bloquear a los proveedores de servicios que las llevan. También abre la puerta para que los destinatarios de las llamadas presenten demandas y les da a los fiscales generales estatales un nuevo mecanismo para tomar medidas enérgicas contra los infractores, según la FCC.

La presidenta de la agencia, Jessica Rosenworcel, dijo que los malos actores han estado utilizando voces generadas por la IA en las llamadas automáticas para desinformar a los votantes, hacerse pasar por celebridades y extorsionar a miembros de la familia.

«Parece algo de un futuro lejano, pero esta amenaza ya está aquí», dijo Rosenworcel a The Associated Press el miércoles mientras la comisión estaba considerando las regulaciones. «Todos nosotros podríamos estar en el extremo receptor de estas llamadas falsas, así que es por eso que sentimos que el momento de actuar era ahora».

Según la ley de protección del consumidor, los teleoperadores generalmente no pueden usar marcadores automáticos o mensajes de voz artificiales o pregrabados para llamar a teléfonos móviles, y no pueden hacer tales llamadas a teléfonos fijos sin el consentimiento previo por escrito del destinatario de la llamada.

El nuevo fallo clasifica las voces generadas por la IA en las llamadas automáticas como «artificiales» y, por lo tanto, exigibles según los mismos estándares, dijo la FCC.

Aquellos que infrinjan la ley pueden enfrentarse a multas elevadas, con un máximo de más de 23.000 dólares por llamada, dijo la FCC. La agencia ha utilizado previamente la ley de defensa del consumidor para reprimir a los que llaman por robo que interfieren en las elecciones, incluida la imposición de una multa de 5 millones de dólares a dos falsos conservadores por advertir falsamente a las personas en áreas predominantemente negras que votar por correo podría aumentar su riesgo de arresto, cobro de deudas y vacunación forzada.

La ley también otorga a los destinatarios de la llamada el derecho a emprender acciones legales y potencialmente recuperar hasta 1.500 dólares en daños y perjuicios por cada llamada no deseada.

Josh Lawson, director de IA y democracia en el Instituto Aspen, dijo que incluso con la decisión de la FCC, los votantes deberían prepararse para el spam personalizado que se dirija a ellos por teléfono, mensajes de texto y redes sociales.

«Los verdaderos sombreros oscuros tienden a ignorar las apuestas y saben que lo que están haciendo es ilegal», dijo. «Tenemos que entender que los malos actores van a seguir sacudiendo las jaulas y empujando los límites».

Kathleen Carley, profesora de Carnegie Mellon que se especializa en desinformación computacional, dijo que para detectar el abuso de la tecnología de voz de la IA, uno debe ser capaz de identificar claramente que el audio fue generado por IA.

Eso es posible ahora, dijo, «porque la tecnología para generar estas llamadas ha existido durante un tiempo. Está bien entendido y comete errores estándar. Pero esa tecnología mejorará».

Las sofisticadas herramientas de IA generativa, desde el software de clonación de voz hasta los generadores de imágenes, ya están en uso en las elecciones en los EE. UU. y en todo el mundo.

El año pasado, a medida que se puso en marcha la carrera presidencial de EE. UU., varios anuncios de campaña utilizaron audio o imágenes generados por la IA, y algunos candidatos experimentaron con el uso de chatbots de IA para comunicarse con los votantes.

Los esfuerzos bipartidistas en el Congreso han tratado de regular la IA en las campañas políticas, pero no se ha aprobado ninguna legislación federal, con las elecciones generales a nueve meses de distancia.

La representante Yvette Clarke, que introdujo una legislación para regular la IA en la política, elobió a la FCC por su fallo, pero dijo que ahora el Congreso tiene que actuar.

«Creo que los demócratas y los republicanos pueden estar de acuerdo en que el contenido generado por la IA utilizado para engañar a la gente es algo malo, y tenemos que trabajar juntos para ayudar a la gente a tener las herramientas necesarias para ayudar a discernir lo que es real y lo que no lo es», dijo Clarke, D-N.Y.

Las llamadas automáticas generadas por la IA que buscaban influir en las elecciones primarias de New Hampshire del 23 de enero utilizaron una voz similar a la de Biden, emplearon su frase a menudo utilizada, «Qué montón de malarkey» y sugirieron falsamente que votar en las primarias impediría que los votantes votaran en noviembre.

«New Hampshire tuvo una idea de cómo la IA se puede usar de manera inapropiada en el proceso electoral», dijo el secretario de Estado de New Hampshire, David Scanlan. «Ciertamente es apropiado tratar de poner nuestros brazos en torno al uso y la aplicación para que no estemos engañando a la población votante de una manera que podría dañar nuestras elecciones».

El fiscal general del estado, John Formella, dijo el martes que los investigadores habían identificado a Life Corp., con sede en Texas, y a su propietario, Walter Monk, como la fuente de las llamadas, que fueron a miles de residentes del estado, en su mayoría demócratas registrados. Dijo que las llamadas fueron transmitidas por otra empresa con sede en Texas, Lingo Telecom.

Según la FCC, tanto Lingo Telecom como Life Corp. han sido investigados por llamadas automáticas ilegales en el pasado.

Lingo Telecom dijo en un comunicado el martes que «actuó de inmediato» para ayudar con la investigación de las llamadas automáticas que se hacen pasar por Biden. La compañía dijo que «no tenía ninguna participación en la producción del contenido de la llamada».

Fuente: https://apnews.com/article/fcc-elections-artificial-intelligence-robocalls-regulations-a8292b1371b3764916461f60660b93e6

https://t.me/QAnons_Espana

Deja un comentario