EL PENTÁGONO QUIERE USAR LA IA PARA CREAR USUARIOS DE INTERNET DEEPFAKE. https://t.me/QAnons_Espana

El Departamento de Defensa quiere tecnología para poder fabricar personas en línea que sean indistinguibles de las personas reales.

El Pentágono es visto desde el Air Force One mientras vuela sobre Washington, el 2 de marzo de 2022.

EL Comando Secreto de Operaciones Especiales de los ESTADOS UNIDOS está buscando empresas que ayuden a crear usuarios de Internet deepfake tan convincentes que ni los humanos ni las computadoras podrán detectar que son falsos, según un documento de adquisición revisado por The Intercept.

El plan, mencionado en una nueva lista de deseos de 76 páginas por el Comando Conjunto de Operaciones Especiales del Departamento de Defensa, o JSOC, describe las tecnologías avanzadas deseadas para los esfuerzos militares clandestinos más elitistas del país. «Las Fuerzas de Operaciones Especiales (SOF) están interesadas en tecnologías que pueden generar personas en línea convincentes para su uso en plataformas de redes sociales, sitios de redes sociales y otro contenido en línea», dice la entrada.

El documento especifica que JSOC quiere la capacidad de crear perfiles de usuario en línea que «parecen ser un individuo único que es reconocible como humano, pero que no existe en el mundo real», cada uno con «múltiples expresiones» y «fotos de calidad de identificación gubernamental».

Además de las imágenes fijas de personas falsas, el documento señala que «la solución debería incluir imágenes faciales y de fondo, vídeo facial y de fondo, y capas de audio», y JSOC espera poder generar «vídeo selfie» a partir de estos humanos fabricados. Estos vídeos contarán con más que personas falsas: cada selfie deepfake vendrá con un fondo falso a juego, «para crear un entorno virtual indetectable por los algoritmos de las redes sociales».

El Pentágono ya ha sido sorprendido usando usuarios de redes sociales falsos para promover sus intereses en los últimos años. En 2022, Meta y Twitter eliminaron una red de propaganda que utilizaba cuentas falsas operadas por EE. UU. Comando Central, incluyendo algunos con fotos de perfil generadas con métodos similares a los descritos por JSOC. Una investigación de Reuters de 2024 reveló una campaña del Comando de Operaciones Especiales que utiliza usuarios falsos de redes sociales con el objetivo de socavar la confianza extranjera en la vacuna Covid de China.

El año pasado, el Comando de Operaciones Especiales, o SOCOM, expresó su interés en utilizar «deepfakes» de vídeo, un término general para los datos audiovisuales sintetizados destinados a ser indistinguibles de una grabación genuina, para «operaciones de influencia, engaño digital, interrupción de la comunicación y campañas de desinformación». Tales imágenes se generan utilizando una variedad de técnicas de aprendizaje automático, generalmente utilizando un software que ha sido «entrenado» para reconocer y recrear características humanas mediante el análisis de una base de datos masiva de rostros y cuerpos. La lista de deseos de SOCOM de este año especifica un interés en un software similar a StyleGAN, una herramienta lanzada por Nvidia en 2019 que impulsó el sitio web mundialmente popular «This Person Does Not Exist«. Un año después del lanzamiento de StyleGAN, Facebook dijo que había eliminado una red de cuentas que utilizaban la tecnología para crear imágenes de perfil falsas. Desde entonces, los investigadores académicos y del sector privado han estado involucrados en una carrera entre nuevas formas de crear deepfakes indetectables y nuevas formas de detectarlos. Muchos servicios gubernamentales ahora requieren la llamada detección de vivacidad para frustrar las fotos de identidad profundamente falsificadas, pidiendo a los solicitantes humanos que carguen un vídeo selfie para demostrar que son una persona real, un obstáculo que SOCOM puede estar interesado en frustrar.

En septiembre pasado, una declaración conjunta de la NSA, el FBI y la CISA advirtió que «los medios sintéticos, como los deepfakes, presentan un desafío creciente para todos los usuarios de tecnología y comunicaciones modernas». Describió la proliferación mundial de la tecnología deepfake como un «riesgo principal» para 2023. En una sesión informativa de antecedentes a los periodistas este año, los funcionarios de inteligencia de los Estados Unidos advirtieron que la capacidad de los adversarios extranjeros de difundir «contenido generado por IA» sin ser detectado, exactamente la capacidad que el Pentágono busca ahora, representa un «aceler de influencia maligna» de Rusia, China e Irán. A principios de este año, las Unidades de Innovación de Defensa del Pentágono buscaron ayuda del sector privado en la lucha contra los deepfakes con un aire de alarma: «Esta tecnología es cada vez más común y creíble, lo que representa una amenaza significativa para el Departamento de Defensa, especialmente porque los adversarios estadounidenses utilizan deepfakes para el engaño, el fraude, la desinformación y otras actividades maliciosas». Un artículo de abril de los EE. UU. El Instituto de Estudios Estratégicos del Ejército estaba igualmente preocupado: «Los expertos esperan que el uso malicioso de la IA, incluida la creación de videos deepfake para semr la desinformación para polarizar a las sociedades y profundizar las quejas, crezca durante la próxima década».

El uso ofensivo de esta tecnología por parte de los Estados Unidos, naturalmente, estimularía su proliferación y la normalizaría como una herramienta para todos los gobiernos. «Lo que es notable de esta tecnología es que es de naturaleza puramente engañosa», dijo Heidy Khlaaf, científica jefa de IA del AI Now Institute. «No hay casos de uso legítimos aparte del engaño, y es preocupante ver que el ejército estadounidense se inclina hacia el uso de una tecnología contra la que ellos mismos han advertido. Esto solo envalentonará a otros militares o adversarios para que hagan lo mismo, lo que lleva a una sociedad en la que es cada vez más difícil determinar la verdad de la ficción y desconcertar la esfera geopolítica».

Tanto Rusia como China han sido atrapadas usando videos defalsados y avatares de usuarios en sus esfuerzos de propaganda en línea, lo que llevó al Departamento de Estado a anunciar un «Marco para contrarrestar la manipulación de la información estatal extranjera» internacional en enero. «La manipulación e interferencia de la información extranjera es una amenaza de seguridad nacional para los Estados Unidos, así como para sus aliados y socios», dijo un comunicado de prensa del Departamento de Estado. «Los gobiernos autoritarios utilizan la manipulación de la información para triturar el tejido de las sociedades libres y democráticas».

El interés de SOCOM en los deepfakes es parte de una tensión fundamental dentro del gobierno de los Estados Unidos, dijo Daniel Byman, profesor de estudios de seguridad en la Universidad de Georgetown y miembro de la Junta Asesora de Seguridad Internacional del Departamento de Estado. «Mucho del gobierno de los Estados Unidos tiene un gran interés en el público que cree que el gobierno constantemente publica información veraz (a su leal saber y entender) y no está engañando deliberadamente a la gente», explicó, mientras que otras ramas tienen la tarea de engañar. «Así que existe la preocupación legítima de que Estados Unidos sea visto como hipócrita», agregó Byman. «También me preocupa el impacto en la confianza nacional en el gobierno: ¿se volverán más sospechosos segmentos del pueblo estadounidense, en general, de la información del gobierno?»

Fuente: https://theintercept.com/2024/10/17/pentagon-ai-deepfake-internet-users/

https://t.me/QAnons_Espana

Deja un comentario