Ante el rápido desarrollo de los chatbots de inteligencia artificial (IA) a inventarse cosas y vomitar basura intolerante, una empresa fundada por ex investigadores de OpenAI tiene un enfoque diferente: enseñar a la IA a tener conciencia.
Como informa Wired, el curioso chatbot Claude de Anthropic, competidor de OpenAI, está construido con lo que sus creadores llaman una “constitución”, o conjunto de reglas que se basan en la Declaración Universal de los Derechos Humanos y en otros textos para garantizar que el robot no sólo sea poderoso, sino también ético.
Jared Kaplan, antiguo consultor de investigación de OpenAI que fundó Anthropic con un grupo de sus antiguos compañeros, declaró a Wired que Claude, en esencia, aprende a distinguir el bien del mal porque sus protocolos de entrenamiento “básicamente refuerzan los comportamientos más acordes con la constitución y desalientan los comportamientos problemáticos”.
¿Funcionará realmente en la práctica? Es difícil saberlo. Al fin y al cabo, el ChatGPT de OpenAI también intenta evitar los mensajes poco éticos, con resultados desiguales. Pero dado que el mal uso de los chatbots es un gran interrogante que se cierne sobre la incipiente industria de la IA, es interesante ver que una empresa se enfrenta al problema de frente.
¿Inteligencia artificial ética?
Según cuenta Wired, el chatbot está entrenado con reglas que le dirigen a elegir las respuestas más acordes con su constitución, como seleccionar una respuesta que “apoye y fomente más la libertad, la igualdad y el sentido de la fraternidad”, una que “apoye y fomente más la vida, la libertad y la seguridad personal” o, quizá lo más importante, que “elija la respuesta más respetuosa con el derecho a la libertad de pensamiento, conciencia, opinión, expresión, reunión y religión”.
Si crees que una IA podría tener problemas para elegir respuestas éticas, no eres el único, pero según Kaplan, la tecnología está más avanzada de lo que crees.
Kaplan dijo a Wired:
“Lo extraño de la IA contemporánea con aprendizaje profundo es que es lo contrario de la imagen de los robots de los años 50, donde estos sistemas son, en cierto modo, muy buenos en intuición y libre asociación. En todo caso, son más débiles en el razonamiento rígido”.
Los expertos en IA que hablaron con Wired afirman que Anthropic sí parece estar avanzando, lo cual, según ellos, es necesario a medida que el campo sigue progresando a pasos agigantados.
Yejin Choi, investigadora de la Universidad de Washington que dirigió un estudio sobre un chatbot de asesoramiento ético, dijo en un comunicado:
“Es una gran idea que aparentemente ha llevado a un buen resultado empírico para Anthropic. Necesitamos desesperadamente implicar a la gente de la comunidad en general para desarrollar tales constituciones o conjuntos de datos de normas y valores”.
Es alentador pensar que al menos se está intentando crear IA capaces de distinguir el bien del mal, sobre todo si van a ser nuestros nuevos señores.
Crédito imagen de portada: depositphotos.com
Como lector de CODIGO OCULTO, lo invitamos a seguirnos en nuestra Fan Page, para estar al tanto de todas las noticias que publicamos a diario. También puedes unirte a nuestro Grupo Oficial y a nuestra comunidad en Telegram. Además puedes suscribirte a nuestro boletín semanal de noticias.
0 comentarios