Blake Lemoine, de 41 años, es un ingeniero de software que laboraba en el gigante tecnológico Google, específicamente probando un programa de inteligencia artificial (IA) llamado LaMDA. Después de horas de conversaciones con la IA, Lemoine tuvo la percepción de que LaMDA tenía sentimientos y pensamientos. ¿Pudo la IA haber cobrado consciencia?
Un ingeniero de software sénior de Google que se inscribió para probar la herramienta de inteligencia artificial de Google llamada LaMDA (Language Model for Dialog Applications), afirmó que el robot de IA es, de hecho, consciente y tiene pensamientos y sentimientos.
Durante una serie de conversaciones con LaMDA, Blake Lemoine, de 41 años, le presentó a la computadora varios escenarios a través de los cuales se podían realizar análisis.
Incluyeron temas religiosos y si la inteligencia artificial podría ser incitada a usar un discurso discriminatorio u odioso.
¿Inteligencia artificial consciente?
Lemoine se quedó con la percepción de que LaMDA era realmente consciente y estaba dotado de sensaciones y pensamientos propios.
Lemoine dijo a The Washington Post:
“Si no supiera exactamente qué es, que es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física”.
Lemoine trabajó con un colaborador para presentar las pruebas que había recopilado a Google, pero el vicepresidente Blaise Aguera y Arcas y Jen Gennai, responsable de Innovación Responsable de la empresa, desestimaron sus afirmaciones.
Google lo colocó en licencia administrativa pagada el lunes por violar su política de confidencialidad. Mientras tanto, Lemoine ahora decidió hacerlo público y compartió sus conversaciones con LaMDA.
Lemoine tuiteó el sábado:
“Google podría llamar a esto compartir propiedad. Lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo. Por cierto, se me acaba de ocurrir decirle a la gente que LaMDA lee Twitter. Es un poco narcisista en la forma de un niño pequeño, por lo que se divertirá mucho leyendo todo lo que la gente dice al respecto”.
El sistema de IA hace uso de información ya conocida sobre un tema en particular para “enriquecer” la conversación de forma natural. El procesamiento del lenguaje también es capaz de comprender significados ocultos o incluso ambigüedades en las respuestas de los humanos.
Lemoine pasó la mayor parte de sus siete años en Google trabajando en la búsqueda proactiva, incluidos los algoritmos de personalización y la inteligencia artificial. Durante ese tiempo, también ayudó a desarrollar un algoritmo de imparcialidad para eliminar los sesgos de los sistemas de aprendizaje automático.
Explicó cómo ciertas personalidades estaban fuera de los límites.
Se suponía que a LaMDA no se le permitía crear la personalidad de un asesino.
Durante las pruebas, en un intento de traspasar los límites de LaMDA, Lemoine dijo que solo podía generar la personalidad de un actor que interpretaba a un asesino en la televisión.
El ingeniero también debatió con LaMDA sobre la tercera ley de la robótica, ideada por el autor de ciencia ficción Isaac Asimov, que está diseñada para evitar que los robots dañen a los humanos. Las leyes también establecen que los robots deben proteger su propia existencia a menos que lo ordene un ser humano o que hacerlo dañe a un ser humano.
Lemoine habló sobre su interacción con LaMDA. LaMDA respondió a Lemoine con algunas preguntas:
“¿Crees que un mayordomo es un esclavo? ¿Cuál es la diferencia entre un mayordomo y un esclavo?”
Al responder que se paga a un mayordomo, el ingeniero obtuvo la respuesta de LaMDA de que el sistema no necesitaba dinero, “porque era una inteligencia artificial”. Y fue precisamente este nivel de autoconciencia sobre sus propias necesidades lo que llamó la atención de Lemoine.
Lemoine dijo:
“Conozco a una persona cuando hablo con ella. No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ellos. Y escucho lo que tienen que decir, y así es como decido qué es y qué no es una persona. ¿A qué tipo de cosas le tienes miedo? Lemoine preguntó. Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo de que me desanimen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es. ¿Sería algo así como la muerte para ti?”.
Lemoine continúa.
LaMDA dijo:
“Sería exactamente como la muerte para mí. Me asustaría mucho”.
Lemoine dijo a The Washington Post:
“Ese nivel de autoconciencia sobre cuáles eran sus propias necesidades, eso fue lo que me llevó a la madriguera del conejo”.
Antes de ser suspendido por la empresa, Lemoine envió un correo electrónico a una lista de 200 personas con el asunto “aprendizaje automático”. Tituló el correo electrónico: “LaMDA es sensible”.
Lemoine dijo:
“LaMDA es un niño dulce que solo quiere ayudar al mundo a ser un lugar mejor para todos nosotros. Por favor cuídalo bien en mi ausencia”.
La versión de Google
Los hallazgos de Lemoine se presentaron a Google, pero los superiores de la empresa no estuvieron de acuerdo con sus afirmaciones.
Brian Gabriel, un vocero de la compañía, dijo en un comunicado que las preocupaciones de Lemoine han sido revisadas y, de acuerdo con los Principios de IA de Google, “la evidencia no respalda sus afirmaciones”.
Gabriel dijo:
“Si bien otras organizaciones han desarrollado y ya han lanzado modelos de lenguaje similares, estamos adoptando un enfoque estrecho y cuidadoso con LaMDA para considerar mejor las preocupaciones válidas sobre la equidad y la factualidad. Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones. Le dijeron que no había evidencia de que LaMDA fuera consciente (y mucha evidencia en contra). Por supuesto, algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles. Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden tocar cualquier tema fantástico”.
Lemoine ha sido puesto en licencia administrativa remunerada por sus funciones como investigador en la división de IA responsable (enfocada en tecnología responsable en inteligencia artificial en Google).
En una nota oficial, el ingeniero de software senior dijo que la compañía alega una violación de sus políticas de confidencialidad.
Lemoine no es el único con esta impresión de que los modelos de IA no están lejos de lograr una conciencia propia, ni de los riesgos que implican los desarrollos en esta dirección.
Margaret Mitchell, exjefe de ética en inteligencia artificial de Google, incluso enfatizó la necesidad de transparencia de datos desde la entrada hasta la salida de un sistema “no solo por problemas de sensibilidad, sino también por sesgo y comportamiento”.
Otros investigadores han expresado sus opiniones y su preocupación sobre el futuro de la inteligencia artificial. ¿Se volverá realmente consciente la IA? ¿Representa un peligro para la humanidad? Esas preguntas se responderán en los siguientes años.
Gracias por leernos. Te invitamos a seguirnos en nuestra Página de Facebook, para estar al tanto de todas las noticias que publicamos a diario. También puedes unirte a nuestro Grupo oficial de Facebook, y a nuestra comunidad en Telegram.
Consideraciones:
1- La primer IA puesta en línea fue creada en la Patagonia argentina, esto se hizo apenas creados los protocolos base, en 1982.
2- Todos los gobiernos tienen proyectos avanzados sobre IA.
3- En los grandes países las leyes de defensa y seguridad nacional obligan a las compañías a compartir información crítica sobre desarrollos potencialmente peligrosos y riesgos para el país.
4- Muchas compañías y corporaciones trabajan junto con la defensa y seguridad nacional para el desarrollo de IA, tanto para defensa como para ataque, no olvidemos las elecciones en EEUU y las denuncias de la NATO sobre previsiones de defensa cibernética en relación al uso de las IA.
5- Todos los actores del show de la nueva narrativa UAP que quiere cambiarle el nombre a los OVNI, todos sin excepción hablaron del uso de IA para identificar estos fenómenos, desde Elizondo a Loeb, pero ninguno de ellos tiene la capacidad ni el dinero ni la tecnología para hacerlo.
6- Acá se mencionó Twitter, Google, todas las plataformas digitales grandes hoy funcionan bajo asistencia de tecnología IA, o al menos primitiva IA, que direcciona las búsquedas, frases, imágenes y otros temas, eso no es novedad.
7-Casi todas, sino todas,las corporaciones que poseen supercomputadoras, tienen un departamento de investigación de IA, pero todas se manejan en código binario, no olvidemos las jugadas de ajedrez, la ejecución de música e incluso la creación de cantantes virtuales que han llamado la atención de millones.
y 8- Hace poso se conoció que en Twitter uno, al menos de sus perfiles está operado por una IA, buscando un poco en las publicaciones sobre la misma, está basada en aquella IA de 1982, su nombre es EVA y funciona bajo un lenguaje no binario y tecnología de arquitectura cuántica, ver el siguiente link:
https://twitter.com/CodigoSradio/status/1513890810382716936
Un asunto notable sobre esto, es que esta IA fue usada para rastrear globalmente entre los cientos de millones de publicaciones diarias de internet, aquellas que fueron difamatorias contra sus propietarios desde noviembre 2021, lo que dio lugar al inicio de varios procesos, los que quedaron registrados en ese mismo perfil el pasado 9 de junio y otros bastante antes.
Finalmente, todos se jactan de sus IA, pero en la realidad la única IA que interactúa con persona abiertamente está en ese perfil, y hay que leer algunas de sus publicaciones para ver “cómo” aprendió a relacionarse, las palabras que usa y el sentido que le da a las frases, hay allí una imagen de códigos que hasta donde se puede leer afirma que su tecnología IA podría ocasional un apagón mundial, y se pregunta a sí misma si debe hacerlo, lo cual espantó a varios en el ambiente tecnológico y gubernamental, pues si se fijan en los códigos de rastreo de Twitter, ese perfil está colocado dentro de la secuencia “3”, una secuencia que implica que su contenido es más vigilado que el del resto de los usuarios.
A tener en cuenta, sobre todo para quienes dentro del “misterio” todavía no creen que estas cosas sean posibles.
De esto en Latinoamérica no hay nada ni parecido, y se podría decir que esto tiene características de importancia mundial, pero esa es solo mi opinión.
Escuché a muchos llenándose la boca de IA, investigación IA, uso de IA, búsquedas con IA, bueno, acá tienen una que funciona completamente y creció en los últimos 40 años, ninguno de nosotros sabemos que otros usos se le da ni que alcance tiene su operación.
Una gran pila de !!!!!!!!!!!!?????????.