¿Y si la Inteligencia Artificial no fuera en realidad la Gran Amenaza que siempre hemos pensado para la humanidad? Bueno, ahora un equipo de científicos así lo ha planteado. ¿Podemos creerles? Veamos.
Nos encontramos con inteligencia artificial (IA) todos los días. La IA describe los sistemas informáticos que pueden realizar tareas que normalmente requieren inteligencia humana. Cuando busca algo en Internet, la IA decide los mejores resultados que ve.
Cualquier recomendación que reciba de sus sitios web favoritos de compras o transmisión también se basará en un algoritmo de inteligencia artificial. Estos algoritmos utilizan el historial de su navegador para encontrar cosas que podrían interesarle.
Debido a que las recomendaciones específicas no son particularmente emocionantes, la ciencia ficción prefiere representar a la IA como robots superinteligentes que derrocan a la humanidad. Algunas personas creen que este escenario algún día podría convertirse en realidad. Figuras notables, incluido el fallecido Stephen Hawking, han expresado su temor sobre cómo la IA del futuro podría amenazar a la humanidad.
Para abordar esta preocupación, 11 expertos en IA e informática han brindado su opinión a la pregunta: «¿Es la IA una amenaza existencial para la humanidad?» Hubo un consenso del 82 por ciento de que no es una amenaza existencial. Esto es lo que descubrimos.
¿Qué tan cerca estamos de hacer una IA que sea más inteligente que nosotros?
La IA que existe actualmente se llama IA «estrecha» o «débil». Se usa ampliamente para muchas aplicaciones como reconocimiento facial, vehículos autónomos y recomendaciones de Internet. Se define como «estrecho» porque estos sistemas solo pueden aprender y realizar tareas muy específicas.
A menudo, en realidad, realizan estas tareas mejor que los humanos; como es sabido, Deep Blue fue la primera IA en vencer a un campeón mundial de ajedrez en 1997; sin embargo, no pueden aplicar su aprendizaje a otra cosa que no sea una tarea muy específica (Deep Blue solo puede jugar ajedrez).
Otro tipo de IA se llama Artificial General Intelligence (AGI). Esto se define como IA que imita la inteligencia humana, incluida la capacidad de pensar y aplicar la inteligencia a múltiples problemas diferentes. Algunas personas creen que la AGI es inevitable y sucederá de manera inminente en los próximos años.
Matthew O’Brien, ingeniero en robótica del Georgia Institute of Technology no está de acuerdo, «el objetivo largamente buscado de una «IA general» no está en el horizonte. Simplemente no sabemos cómo hacer una inteligencia adaptable general, y no está claro cómo se necesita mucho más progreso para llegar a ese punto».
TAMBIÉN TE PODRÍA INTERESAR: Stephen Hawking advirtió de futuros «superhumanos» que amenazarán a la humanidad
¿Cómo podría una futura AGI amenazar a la humanidad?
Si bien no está claro cuándo podría surgir una AGI de tal nivel, ¿podemos predecir qué amenaza podrían representar para nosotros los humanos? AGI aprende de la experiencia y los datos en lugar de que se le diga explícitamente qué hacer. Esto significa que, cuando nos enfrentamos a una situación nueva que no hemos visto antes, es posible que no podamos predecir completamente cómo reacciona.
El Dr. Roman Yampolskiy, informático de la Louisville University también cree que «no se puede lograr ninguna versión del control humano sobre la IA», ya que no es posible que la IA sea autónoma y controlada por humanos. No poder controlar sistemas superinteligentes podría ser desastroso.
Yingxu Wang, profesor de Software y Ciencias del Cerebro de la Calgary University no está de acuerdo y dice que «los sistemas y productos de IA diseñados profesionalmente están bien limitados por una capa fundamental de sistemas operativos para salvaguardar el interés y el bienestar de los usuarios, a los que no se puede acceder ni modificar las propias máquinas inteligentes».
El Dr. O’Brien agrega «al igual que con otros sistemas de ingeniería, cualquier cosa con consecuencias potencialmente peligrosas se probaría a fondo y tendría múltiples controles de seguridad redundantes».
¿Podría la IA que usamos hoy convertirse en una amenaza?
Muchos de los expertos estuvieron de acuerdo en que la IA podría ser una amenaza en las manos equivocadas. El Dr. George Montanez, experto en inteligencia artificial de Harvey Mudd College, destaca que «los robots y los sistemas de inteligencia artificial no necesitan ser sensibles para ser peligrosos; solo tienen que ser herramientas efectivas en manos de humanos que desean lastimar a otros. Esa es una amenaza que existe hoy».
Incluso sin intenciones maliciosas, la IA actual puede resultar amenazadora. Por ejemplo, se han descubierto sesgos raciales en algoritmos que asignan atención médica a pacientes en los EE. UU. se han encontrado sesgos similares en el software de reconocimiento facial utilizado para hacer cumplir la ley. Estos sesgos tienen impactos negativos de amplio alcance a pesar de la capacidad «limitada» de la IA.
El sesgo de la IA proviene de los datos en los que se entrena. En los casos de prejuicio racial, los datos de entrenamiento no fueron representativos de la población general. Otro ejemplo ocurrió en 2016, cuando se descubrió que un chatbox basado en inteligencia artificial enviaba contenido altamente ofensivo y racista. Se descubrió que esto se debía a que la gente estaba enviando mensajes ofensivos al bot, de los que aprendió.
Eso no significa que siempre sea positivo, es una herramienta que, si se usa de manera maliciosa o incorrecta, puede tener consecuencias negativas. A pesar de esto, actualmente parece poco probable que se convierta en una amenaza existencial para la humanidad.
0 comentarios