Una vez más, un grupo de expertos en inteligencia artificial (IA) han lanzado una clara y sucinta advertencia al mundo: se debe mitigar el riesgo de extinción relacionada a la IA, de forma prioritaria”.
¿Por qué están surgiendo cada vez muchas más personalidades a advertir sobre los peligros de la IA?
Un grupo de estacados científicos y expertos de la industria tecnológica lanzaron el último martes una nueva advertencia sobre los peligros potenciales que la inteligencia artificial (IA) puede representar para la humanidad en los próximos años.
Parte de la declaración aparecida en el sitio web de la Center for AI Safety (CAIS), indica:
“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial. Los riesgos a escala social de la IA a través de la investigación, la creación de campos y la defensa”.
Inteligencia artificial como “amenaza” para la humanidad
La declaración del CAIS clasificaba las amenazas potenciales de la IA junto con las pandemias y la guerra nuclear como peligros que podrían afectar gravemente a la vida en la Tierra.
Entre los firmantes de la declaración en línea se encontraba Geoffrey Hinton, que ya había advertido anteriormente sobre el potencial destructivo de la IA tras haber trabajado durante años como innovador en el aprendizaje automático.
Hinton renunció recientemente a su trabajo en Google por preocupaciones relacionadas con la IA y su capacidad para abordar el tema públicamente. Sam Altman, CEO de ChatGPT, y docenas de personas más también firmaron la declaración.
Aunque muchos expertos han expresado su preocupación por los peligros potenciales relacionados con la IA durante la última década, el debate sobre el tema ha experimentado una escalada desde la llegada de chatbots de IA como ChatGPT y Bard de Google.
El sitio web de CAIS, explica:
“Aunque la IA tiene muchas aplicaciones beneficiosas, también puede utilizarse para perpetuar prejuicios, alimentar armas autónomas, promover la desinformación y llevar a cabo ciberataques”.
Hinton renunció recientemente a su trabajo en Google por preocupaciones relacionadas con la IA y su capacidad para abordar el tema públicamente. Sam Altman, Consejero Delegado de ChatGPT, y docenas de personas más también firmaron la declaración.
Diversos expertos expresaron su preocupación
Aunque muchos expertos han expresado su preocupación por los peligros potenciales relacionados con la IA durante la última década, el debate sobre el tema ha experimentado una escalada desde la llegada de chatbots de IA como ChatGPT y Bard de Google.
El sitio web del CAIS indica:
“Aunque la IA tiene muchas aplicaciones beneficiosas, también puede utilizarse para perpetuar prejuicios, alimentar armas autónomas, promover la desinformación y llevar a cabo ciberataques.
Incluso cuando los sistemas de IA se utilizan con participación humana, los agentes de IA son cada vez más capaces de actuar de forma autónoma para causar daño”.
Riesgos potenciales de la IA
El CAIS agrupa los riesgos potenciales de la inteligencia artificial en ocho categorías que incluyen:
- Potencial armamentismo.
- Difusión de información errónea.
- Juego por poderes (en el que la IA puede perseguir objetivos a expensas de los individuos y la sociedad).
- Debilitamiento resultante de una dependencia excesiva de la IA.
- “Bloqueo de valores” de sistemas potencialmente opresivos.
- Objetivos emergentes que la IA puede poseer y que podrían provocar la pérdida del control humano.
- Uso del engaño por parte de la IA.
- Comportamiento de búsqueda de poder que podría dar lugar a cualquier número de escenarios potenciales de toma del poder por parte de la IA.
Países ya están trabajando en regular el desarrollo de la IA
En respuesta a las advertencias sobre el posible uso indebido de la IA y las complicaciones imprevistas que podrían derivarse de su desarrollo, muchos países están trabajando para regular el desarrollo de la IA.
La Ley de Inteligencia Artificial de la Unión Europea está a punto de convertirse en “la primera ley sobre Inteligencia Artificial promulgada por un regulador importante de cualquier lugar”, y aborda tres categorías principales de riesgos derivados de la Inteligencia Artificial como objetivo de la futura ley.
La declaración del CAIS emitida el martes no es el primer caso en el que líderes de la industria y científicos han advertido colectivamente sobre tales peligros. A principios de este año, Elon Musk y más de 1.000 personas firmaron una carta abierta en la que pedían una pausa de seis meses en el desarrollo de la IA para dar tiempo a evaluar los posibles resultados y sopesar los factores de riesgo.
Una parte de la carta afirma:
“Los potentes sistemas de IA sólo deberían desarrollarse cuando tengamos la certeza de que sus efectos serán positivos y sus riesgos controlables.
Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema”.
Ojo al piojo:
Todos estos movimientos en torno al desarrollo de la inteligencia artificial son evidentemente “jugadas fuera de juego” o estrategias que prácticamente ya no tendrían efecto alguno. ¿Por qué? Porque el avance de la IA es sencillamente inevitable. Quizá se puedan regular algunos aspectos o vigilar su desarrollo, pero detenerlo va a ser una misión imposible.
Crédito imagen de portada: depositphotos.com
Como lector de CODIGO OCULTO, lo invitamos a seguirnos en nuestra Fan Page, para estar al tanto de todas las noticias que publicamos a diario. También puedes unirte a nuestro Grupo Oficial y a nuestra comunidad en Telegram. Además puedes suscribirte a nuestro boletín semanal de noticias.
0 comentarios