Elon Musk y Steve Wozniak piden detener inmediatamente ChatGPT. ¿Ya es muy tarde?
Publicado el 30 Mar 2023
© Imagen: Wikimedia Commons / Pixabay

Una organización sin ánimo de lucro denominada “Future of Life“, publicó una carta en la que el consejero delegado de SpaceX, Elon Musk, el cofundador de Apple Steve Wozniak, el filántropo Andrew Yang y cerca de un millar de investigadores de inteligencia artificial pedían la “suspensión inmediata” del entrenamiento de sistemas de IA “más potentes que GPT-4”.

La carta afirma que los sistemas de inteligencia artificial con “inteligencia humana competitiva” pueden conllevar “graves riesgos para la sociedad y la humanidad”. Pide a los laboratorios que suspendan el entrenamiento durante seis meses.

Los autores de la carta subrayan:

“Los sistemas de inteligencia artificial potentes sólo deben desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables”.

Más de 1.125 personas firmaron la petición, entre ellas el cofundador de Pinterest Evan Sharp, el cofundador de Ripple Chris Larsen, el CEO de Stability AI Emad Mostak, e investigadores de DeepMind, Harvard, Oxford y Cambridge. También firmaron la carta los pesos pesados de la IA Yoshua Bengio y Stuart Russell. Este último también pide que se suspenda el desarrollo de IA avanzada hasta que expertos independientes desarrollen, apliquen y prueben protocolos de seguridad comunes para dichos sistemas de IA.

La carta detalla los riesgos potenciales para la sociedad y la civilización de los sistemas competitivos de IA en forma de trastornos económicos y políticos.

ChatGPT

Crédito de imagen: depositphotos.com

He aquí el texto íntegro de la carta:

“Los sistemas de inteligencia artificial que compiten con los humanos pueden suponer un grave peligro para la sociedad y la humanidad, como han demostrado numerosas investigaciones y han reconocido los principales laboratorios de inteligencia artificial. Como se afirma en los principios de IA de Asilomar, ampliamente respaldados, la IA avanzada puede desencadenar cambios profundos en la historia de la vida en la Tierra y debe diseñarse y gestionarse con el cuidado y los recursos adecuados. Por desgracia, este nivel de planificación y gestión no existe, a pesar de que en los últimos meses los laboratorios de IA se han visto inmersos en una carrera descontrolada por desarrollar y desplegar “mentes digitales” cada vez más potentes, cuyo rendimiento no puede predecirse ni controlarse de forma fiable, y que nadie -ni siquiera sus creadores- puede entender.

Los modernos sistemas de inteligencia artificial se están volviendo competitivos en la resolución de problemas comunes, y debemos preguntarnos: ¿debemos permitir que las máquinas inunden nuestros canales de información con propaganda y falsificaciones? ¿Debemos automatizar todos los puestos de trabajo, incluidos los que pueden ser sustituidos por la IA? ¿Deberíamos desarrollar “mentes no humanas” que, con el tiempo, podrían superarnos en número, burlarnos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?

Estas decisiones no deberían delegarse en líderes tecnológicos no elegidos. Sólo deberían desarrollarse potentes sistemas de inteligencia artificial cuando estemos seguros de que sus efectos serán positivos y los riesgos controlables. Esta confianza debería estar bien fundada y sólo crecer con la expansión de los efectos potenciales de tales sistemas. Una reciente declaración de OpenAI relativa a la inteligencia artificial general afirma que “en algún momento, puede ser importante obtener una evaluación independiente antes de embarcarse en la formación de futuros sistemas, y para los esfuerzos más avanzados, acordar limitar la tasa de crecimiento de los cálculos utilizados para crear nuevos modelos.” Estamos de acuerdo. Ese momento ha llegado ahora.

Por lo tanto, pedimos a todos los laboratorios de IA que suspendan inmediatamente el entrenamiento en sistemas de IA más potentes que el GPT-4 durante al menos seis meses. Esta pausa debe ser universal y controlada, y todos los participantes clave deben participar en ella. Si dicha pausa no puede establecerse rápidamente, los gobiernos deberían intervenir e imponer una moratoria.

Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar y aplicar conjuntamente un conjunto de protocolos de seguridad comunes para el diseño y desarrollo de IA avanzada que serán revisados y supervisados cuidadosamente por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, sino simplemente un paso atrás en una peligrosa carrera hacia modelos de “caja negra” impredecibles cada vez más grandes y con más capacidades.

La investigación y el desarrollo de la IA deben reorientarse para que los potentes sistemas actuales de IA de última generación sean más precisos, seguros, interpretables, transparentes, fiables, coherentes, dignos de confianza y leales.

Paralelamente, los desarrolladores de IA deben trabajar con las políticas para acelerar enormemente el desarrollo de sistemas de control de IA robustos. Estos esfuerzos deben incluir, como mínimo: reguladores de IA nuevos y capaces; supervisión y control de los sistemas de inteligencia artificial de alto rendimiento y de los grandes conjuntos de potencia de cálculo; sistemas de verificación y marca de agua que ayuden a distinguir el contenido real del generado y a rastrear las fugas de modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por los daños causados por la IA; fuerte financiación pública para la investigación técnica en seguridad de la IA; instituciones bien dotadas de recursos para hacer frente a los graves trastornos económicos y políticos (especialmente en las democracias) que causará la IA.

La humanidad podrá disfrutar de un futuro próspero con la IA. Tras haber logrado crear sistemas potentes, llegaremos al “verano de la IA”, cuando cosechemos los beneficios, desarrollemos estos sistemas en beneficio de todos y demos a la sociedad la oportunidad de adaptarse a ellos. La sociedad ha suspendido el uso de otras tecnologías, con consecuencias potencialmente catastróficas. Podemos aplicar esta medida también aquí”.

Los principales laboratorios de inteligencia artificial, como OpenAI, aún no han respondido a la carta.

OpenAI

Crédito de imagen: depositphotos.com

Gary Marcus, profesor emérito de la New York University y firmante de la carta, dijo en un comunicado:

“La carta no es perfecta, pero su espíritu es correcto: tenemos que ir más despacio hasta que comprendamos mejor todos los riesgos. Los sistemas de IA pueden causar graves daños… Los grandes actores son cada vez más reservados sobre lo que hacen”.

OpenAI presentó GPT-4 el 14 de marzo. El modelo es capaz de interpretar no sólo texto, sino también imágenes. Ahora también reconoce imágenes borrosas, incluidas las dibujadas a mano.

Tras el anuncio del nuevo modelo lingüístico, OpenAI se negó a publicar los materiales de investigación en los que se basaba. Miembros de la comunidad de la IA criticaron la decisión, señalando que socava el espíritu de la empresa como organización de investigación y dificulta que otros reproduzcan su trabajo. Al mismo tiempo, esto dificulta el desarrollo de medios de protección contra las amenazas que plantean los sistemas de IA.

¿Es ya muy tarde para pedir la suspensión del desarrollo de tecnologías avanzadas de Inteligencia Artificial?

Gracias por leernos. Te invitamos a seguirnos en nuestra Fan Page, para estar al tanto de todas las noticias que publicamos a diario. También puedes visitarnos directamente AQUÍ. O puedes unirte a nuestro Grupo Oficial, y a nuestra comunidad en Telegram.

Te puede gustar:

Redacción CODIGO OCULTO

Redacción CODIGO OCULTO

Autor

La verdad es más fascinante que la ficción.

2 Comentarios

  1. Adolfo

    La Inteligencia Artificial no tiene alma. Recuerdese que en la película 2001:una odisea del espacio, el ccomputador Hall 9000 decidia eliminar a los humanos porque tenía miedo a que la borraran y por tanto, la mataran.

    Responder
  2. LYDIA CANO NEVAREZ

    ENMI OPINION,ES MÁS IMPORTANTE EN EL AVANCE ESPIRITUAL, ESTAS PERSONAS PIENSAN EN LOS BENEFICIOS MONETARIOS NO EN LO MÁS IMPORTANTE QUE ES EL VIVIR PARA SERVIR Y CONVIVIR CON SERES HUMANOS, AL FINAL DE CUENTAS LO UNICO SEGURO QUE TENEMOS AL NACER ES LA MUJERTE, ENTONCES LES PREGUNTO CUANDO SE VALLAN DEJARAN MEJORES SERES HUMANOS CONSCIENTES Y FELICES, TOTALMENTE EN DESACUERDO QUE SIGAN CONN ESTO, ADEMÁS EL MUNDO NO ES DE ELLOS ES DE TODOS LOS SERES HUMANOS

    Responder

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Síguenos y únete en nuestras redes sociales

Apoya nuestro trabajo

Con tu ayuda podremos seguir creando contenidos e informándote a diario. Apoya nuestro trabajo. ¡Gracias!

SUSCRÍBETE GRATIS A NOTICIAS

Síguenos en Telegram
Síguenos en TikTok / codigoocultocom

Conócenos

Código oculto

La historia y sus misterios, civilizaciones antiguas, Ovnis, Vida extraterrestre, Complots. Información alternativa para liberar mentes. Leer más

Obras registradas

Safe Creative #1803242717113

Sitios recomendados

Exploración OVNI
UFO Spain Magazine

También te podría interesar…