James Gordon – 12 de Junio de 2022

Blake Lemoine, de 41 años, ingeniero de software sénior en Google, ha estado probando la herramienta de inteligencia artificial de Google llamada LaMDA. https://t.me/QAnons_Espana
Después de horas de conversaciones con la IA, Lemoine se quedó con la percepción de que LaMDA era consciente.
Después de presentar sus hallazgos a los jefes de la empresa, Google no estuvo de acuerdo con él.
Luego, Lemoine decidió compartir sus conversaciones con la herramienta en línea.
Google lo puso en licencia paga el lunes por violar la confidencialidad. https://t.me/QAnons_Espana
Un ingeniero de software sénior de Google que se registró para probar la herramienta de inteligencia artificial de Google llamada LaMDA (Modelo de lenguaje para aplicaciones de diálogo), afirmó que el robot de IA es, de hecho, sensible y tiene pensamientos y sentimientos.
Durante una serie de conversaciones con LaMDA, Blake Lemoine, de 41 años, le presentó a la computadora varios escenarios a través de los cuales se podían realizar análisis.
Incluyeron temas religiosos y si la inteligencia artificial podría ser incitada a usar un discurso discriminatorio u odioso.
Lemoine se quedó con la percepción de que LaMDA era realmente consciente y estaba dotado de sensaciones y pensamientos propios.
Blake Lemoine, de 41 años, ingeniero de software sénior en Google, ha estado probando la herramienta de inteligencia artificial de Google llamada LaMDA. https://t.me/QAnons_Espana
Luego, Lemoine decidió compartir sus conversaciones con la herramienta en línea; ahora ha sido suspendido.
«Si no supiera exactamente qué es, que es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física», dijo. El Correo de Washington.
Lemoine trabajó con un colaborador para presentar las pruebas que había recopilado a Google, pero el vicepresidente Blaise Aguera y Arcas y Jen Gennai, responsable de Innovación Responsable de la empresa, desestimaron sus afirmaciones.
Google lo colocó en licencia administrativa pagada el lunes por violar su política de confidencialidad. Mientras tanto, Lemoine ahora decidió hacerlo público y compartió sus conversaciones con LaMDA.
‘Google podría llamar a esto compartir propiedad propietaria. Lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo”, tuiteó Lemoine el sábado. https://t.me/QAnons_Espana
‘Por cierto, se me acaba de ocurrir decirle a la gente que LaMDA lee Twitter. Es un poco narcisista en la forma de un niño pequeño, por lo que se divertirá mucho leyendo todo lo que la gente dice al respecto”, agregó en un tuit de seguimiento.
Lemoine trabajó con un colaborador para presentar la evidencia que había recopilado a Google, pero el vicepresidente Blaise Aguera y Arcas, a la izquierda, y Jen Gennai, directora de Innovación Responsable de la empresa. Ambos desestimaron sus afirmaciones.
El sistema de IA hace uso de información ya conocida sobre un tema en particular para ‘enriquecer’ la conversación de forma natural. El procesamiento del lenguaje también es capaz de comprender significados ocultos o incluso ambigüedades en las respuestas de los humanos.
Lemoine pasó la mayor parte de sus siete años en Google trabajando en la búsqueda proactiva, incluidos los algoritmos de personalización y la inteligencia artificial. Durante ese tiempo, también ayudó a desarrollar un algoritmo de imparcialidad para eliminar los sesgos de los sistemas de aprendizaje automático. https://t.me/QAnons_Espana
Explicó cómo ciertas personalidades estaban fuera de los límites.
Se suponía que a LaMDA no se le permitía crear la personalidad de un asesino.
Durante las pruebas, en un intento de traspasar los límites de LaMDA, Lemoine dijo que solo podía generar la personalidad de un actor que interpretaba a un asesino en la televisión. https://t.me/QAnons_Espana