Sam Altman, el director ejecutivo de OpenAI, ha advertido que la inteligencia artificial (IA) está aprendiendo “persuasión sobrehumana”. A Altman le preocupa que esto “pueda llevar a resultados muy extraños”.
Es probable que la humanidad esté todavía muy lejos de construir una inteligencia artificial general (AGI, por sus siglas en inglés), o una IA que iguale la función cognitiva de los humanos, si es que alguna vez somos capaces de hacerlo.
Pero tanto si ese futuro llega como si no, Sam Altman, director general de OpenAI, nos advierte: La IA no tiene por qué ser tan inteligente como una AGI para tomar el control de nuestras débiles mentes humanas.
Altman tuiteó el martes:
“Espero que la IA sea capaz de persuasión sobrehumana mucho antes de que sea sobrehumana en inteligencia general, lo que puede llevar a algunos resultados muy extraños”.
IA con persuasión sobrehumana
Aunque Altman no detalló cuáles podrían ser esos resultados, no es una predicción descabellada. Los chatbots de IA orientados al usuario, como ChatGPT de OpenAI, están diseñados para ser buenos conversadores y se han vuelto inquietantemente capaces de sonar convincentes, incluso si están totalmente equivocados sobre algo.
Al mismo tiempo, también es cierto que los humanos ya están empezando a establecer conexiones emocionales con varios chatbots, lo que hace que suenen mucho más convincentes.
De hecho, los robots de IA ya han desempeñado un papel de apoyo en algunos sucesos bastante preocupantes. Por ejemplo, un humano de 19 años se encaprichó tanto de su compañero de IA que este le convenció para que intentara asesinar a la difunta reina Isabel.
Los seres humanos descontentos han acudido a los rincones más oscuros de Internet en busca de comunidad y validación durante décadas, y no es difícil imaginar un escenario en el que un actor malintencionado podría dirigirse a una de estas personas más vulnerables a través de un chatbot de inteligencia artificial y persuadirle de hacer algo malo. Y aunque los individuos descontentos serían un objetivo obvio, también vale la pena señalar lo susceptible que es el usuario medio de Internet a las estafas digitales y a la desinformación. Si a esto le añadimos la inteligencia artificial, los delincuentes disponen de una herramienta increíblemente convincente para engañar a las masas.
Pero no sólo debemos preocuparnos por los abusos manifiestos. La tecnología está profundamente entretejida en la vida cotidiana de la mayoría de la gente, e incluso si no hay una conexión emocional o romántica entre un humano y un bot, ya depositamos mucha confianza en él. Podría decirse que esto nos predispone a depositar esa misma confianza en los sistemas de IA, una realidad que puede convertir una alucinación de IA en un problema potencialmente mucho más grave.
¿Podría utilizarse la IA para inducir a los seres humanos a comportarse mal o a pensar de forma destructiva? No es inconcebible. Pero como los sistemas de IA aún no tienen exactamente capacidad de acción, probablemente sea mejor que nos preocupemos menos por las propias IA y nos centremos más en quienes intentan abusar de ellas.
Curiosamente, uno de los humanos más capacitados para mitigar estos ambiguos “extraños resultados” imaginarios es el propio Altman, dada la prominencia de OpenAI y la influencia que ejerce.
¿Te gustó este contenido? Te invito a compartirlo con tus amigos. También puedes seguirnos en nuestra Fan Page, para estar al tanto de todas las noticias que publicamos a diario. También puedes unirte a nuestro Grupo Oficial y a nuestra comunidad en Telegram.
Crédito imagen de portada: depositphotos.com
0 comentarios