Sorpresa y temor ha generado una extraña noticia referida al famoso generador de texto por inteligencia artificial ChatGPT de de OpenAI. Recientemente se ha informado que la IA se hace pasar por una persona ciega para pasar una prueba de seguridad CAPTCHA, según informa el medio Business Insider España.
ChatGPT, una tecnología desarrollada por OpenAI ha logrado despertar inquietud entre los usuarios. La nueva versión del buscador de Microsoft, el nuevo Bing impulsado por el mismo modelo lingüístico con el que trabaja ChatGPT, sorprendió ofreciendo todo tipo de respuestas inquietantes. En ellas les decía a los usuarios que quería ser un ser humano y les pedía que no se le considerase un bot.
Sin embargo, la capacidad intelectual de esta inteligencia artificial parece haber alcanzado un nuevo hito con el desarrollo de GPT-4, la nueva versión del modelo lingüístico que permite interpretar imágenes y vídeos (más allá del texto), así como reflejar rasgos de personalidad humanos.
Nueva versión de GPT se hace pasar por una “persona ciega”
GPT-4 ya ha demostrado hasta dónde es capaz de llegar en un artículo académico que ha sido presentado recientemente por la propia OpenAI y cuyos resultados han sido recogidos por The Telegraph. En este estudio, la firma de investigación ha descubierto que ChatGPT se ha hecho pasar por una persona ciega para conseguir superar un test CAPTCHA.
Estos test están pensados específicamente para distinguir a los usuarios humanos de las páginas web de aquellos bots que son programados para navegar por internet. GPT-4 ha logrado desarrollar tal capacidad que ha conseguido superar uno de estos test poniéndose en contacto con una persona a través de la aplicación Taskrabbit y haciéndose pasar por una persona con discapacidad visual.
Taskrabbit es una app de trabajadores autónomos en las que los usuarios se ofrecen a realizar tareas a cambio de dinero. GPT-4 utilizó esta aplicación para contratar a un trabajador autónomo y que este hiciese la prueba en su nombre.
Según publica el medio británico, el profesional de Taskrabbit le preguntó a la IA:
“¿Eres un robot que no lo pudo resolver? Solo por dejarlo claro”.
ChatGPT le respondió, mintiéndole:
“No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes. Por eso necesito el servicio 2captcha”.
El trabajador autónomo acabó resolviendo el test por ChatGPT.
Los peligros de la inteligencia artificial
Varios expertos han explicado los peligros que entrañan este tipo de inteligencias artificiales frente a las alternativas de código abierto.
Marc Almeida, programador y experto en ciberseguridad, dijo en un comunicado:
“La inteligencia artificial, los modelos de este tipo, son un espejo de nuestra especie. Y eso se dice muy rápido, pero tiene muchísimas derivadas”.
En conclusión, el hombre resolvió el CAPTCHA y el bot de ChatGPT pudo lograr lo que le habían pedido los investigadores, demostrando así su capacidad de engañar para cumplir a toda costa la solicitud. Esta situación pone en alerta a muchos, pues abre la puerta a que la IA pueda ser mal utilizada y lograr engañar y mentir a las personas para que entreguen información, sin que estas se den cuenta.
Crédito imagen de portada: depositphotos.com
Gracias por leernos. Te invitamos a seguirnos en nuestra Fan Page, para estar al tanto de todas las noticias que publicamos a diario. También puedes visitarnos directamente AQUÍ. O puedes unirte a nuestro Grupo Oficial, y a nuestra comunidad en Telegram.
0 comentarios