Nick Bostrom, el famoso filósofo sueco de la Universidad de Oxford, ha afirmado los chatbots de inteligencia artificial (IA) poseen cierto grado de sensibilidad, y a medida que pasa el tiempo se hacen más sensibles.
¿Cada vez más cerca de una “inteligencia artificial viva”?
Uno de los filósofos de la inteligencia artificial más destacados del mundo sostiene que algunos chatbots podrían exhibir atisbos de sensibilidad, pero eso no significa necesariamente lo que se piensa.
En una entrevista concedida The New York Times, el académico de Oxford Nick Bostrom afirma que, en lugar de considerar el concepto de sensibilidad como un todo o nada, él lo concibe en términos de grados.
Bostrom declaró:
“Estaría dispuesto a atribuir grados muy pequeños a una amplia gama de sistemas, incluidos los animales”, declaró Bostrom, director del Future of Humanity Institute de Oxford.
Si se admite que no es una cosa de todo o nada, entonces no es tan dramático decir que algunos de estos asistentes [de IA] podrían ser candidatos plausibles a tener algunos grados de sintiencia”.
Liga de la Justicia
Aunque se ha ridiculizado ampliamente a quienes han sugerido que las IA podrían estar volviéndose un poco sensibles -incluidos a Blake Lemoine e Ilya Sutskever, de OpenAI-, Bostrom afirma que la insistencia en lo contrario no tiene en cuenta lo inteligentes que son realmente estos chatbots.
Bostrom afirma:
“Yo diría que con estos grandes modelos lingüísticos [LLM], tampoco les hace justicia decir que simplemente regurgitan texto. Muestran destellos de creatividad, perspicacia y comprensión que son bastante impresionantes y pueden mostrar los rudimentos del razonamiento”.
Es más, el filósofo nacido en Suecia afirmó que las LLM “pronto podrían desarrollar una concepción del yo como algo persistente en el tiempo, reflexionar sobre los deseos e interactuar socialmente y establecer relaciones con los humanos”.
El juego podría cambiar completamente
Y si las IAs se vuelven más sensibles, añadió, podría cambiar completamente el juego.
Bostrom afirma:
“Si una IA mostrara signos de sensibilidad, es plausible que tuviera cierto grado de estatus moral. Esto significa que habría ciertas formas de tratarla que estarían mal, igual que estaría mal patear a un perro o que los investigadores médicos operaran a un ratón sin anestesiarlo”.
Aunque esta línea de razonamiento es confusa y -según algunos detractores- inútilmente prematura, es importante empezar a pensar en estas cosas ahora. Al fin y al cabo, si alguien que se ha pasado la vida estudiando este tema cree que debemos tomarnos en serio el concepto de inteligencia artificial, quizá deberíamos escucharle.
Ojo al piojo
Ya tenemos que usar más que los dedos de las manos para contar el alto número de académicos que han aparecido a advertir de los posibles riesgos futuros de la inteligencia artificial. Esto es inevitable. Aunque se haga una enorme cruzada por detener el avance de las IAs, es imposible que estas sigan desarrollándose. A final de cuentas, ¡dependemos casi de ellas! Sino, mira tu dispositivo celular, ¡es pura IA! … Por ahora solo queda esperar cómo se comportará una super inteligencia artificial (que surgirá muy pronto), y si ve a los humanos como una amenaza (como aquella ChaosGPT, de la que publicamos un artículo anteriormente).
Referencias: Futurism / The New York Times
Crédito imagen de portada: depositphotos.com
Gracias por leernos. Te invitamos a seguirnos en nuestra Fan Page, para estar al tanto de todas las noticias que publicamos a diario. También puedes visitar nuestra portada para enterarte de las últimas novedades o unirte a nuestro Grupo Oficial y a nuestra comunidad en Telegram. Y además también puedes suscribirte a nuestro boletín semanal de noticias.
0 comentarios