Sam Altman advierte: “Ya cruzamos el punto de no retorno de la superinteligencia artificial”
Publicado el 15 Jun 2025
© Imagen: depositphotos.com / heute

En una reciente y bastante provocativa declaración que ha encendido los ánimos de la comunidad de la inteligencia artificial (IA), Sam Altman, director ejecutivo de OpenAI, ha hecho lo que podría ser su afirmación más atrevida hasta la fecha: según Altman, ya hemos “superado el punto de no retorno” en lo que respecta a la inteligencia artificial (IA).

¿Qué significa el “punto de no retorno”?

Ahora bien, la idea de un “punto de inflexión” o “punto de no retorno” es un poco alarmante, independientemente del contexto, y no se puede negar que el hecho de que el director de una de las empresas de IA más influyentes del mundo sugiera que no solo hemos alcanzado ese punto con la tecnología, sino que lo hemos superado, es bastante aterrador.

Aunque no lo dice abiertamente, el comentario de Altman sugiere que la inteligencia artificial ha alcanzado una fase de desarrollo tan significativa que su trayectoria ya no está totalmente bajo nuestro control. No lo plantea como una gran advertencia para la humanidad, sembrando el miedo en los corazones de personas de todo el mundo (que pueden haber visto o no “I, robot” demasiadas veces). Más bien, afirma que, personalmente, cree que el resultado será una “singularidad suave”. Aun así, es algo preocupante y, sin duda, digno de reflexión.

Entonces, dada la experiencia, la posición y los conocimientos de Sam Altman, ¿qué debemos hacer con esta información? ¿Tiene razón Altman en sus afirmaciones? ¿O está el director ejecutivo de OpenAI haciendo declaraciones grandilocuentes para avivar el fuego de la llamada “IA”?

Pero, antes de nada, democratizemos la complejidad de esta prolija charla tecnológica y expliquemos algunos conceptos para que todos podamos estar igualmente aterrorizados o tranquilos, dependiendo de nuestra conclusión.

Sam Altman

Sam Altman. Crédito de imagen: heute

¿Qué son la inteligencia artificial generativa (AGI) y la superinteligencia artificial (ASI)?

Bien, la IA, la inteligencia artificial ordinaria tal y como la conocemos (modelos de lenguaje, generadores de imágenes, algoritmos de recomendación, etc.) es muy diferente de lo que nos preocupa cuando hablamos del futuro y el potencial de la IA. En esos contextos, lo que realmente se está discutiendo es la AGI y, en casos extremos, la ASI.

La AGI es la inteligencia artificial generativa y la ASI es la superinteligencia artificial. La primera va más allá de los sistemas de IA estrechos y es capaz de aprender, comprender e incluso razonar en una amplia gama de tareas a un nivel equivalente al de los seres humanos en los mismos contextos. No solo es capaz de hacer cosas como escribir código o jugar al ajedrez, sino que tendría la capacidad de aprender un nuevo idioma, inventar un juego completamente nuevo, debatir conceptos filosóficos o incluso gestionar un negocio, y todo ello sin necesidad de recibir formación adicional ni datos específicos.

Ahora bien, se trata de una idea increíble en sí misma, algo que aún no hemos logrado, a menos que seas Sam Altman, en cuyo caso quizá pienses de otra manera.

La ASI, por su parte, va aún más allá que la AGI. En este punto, la IA no solo se vuelve tan inteligente como los humanos, sino que se vuelve mucho más inteligente que los humanos en todos los aspectos imaginables (así como en aspectos que ni siquiera podemos imaginar). La ASI tendría la capacidad de resolver problemas que ni siquiera hemos imaginado todavía, optimizar economías enteras e innovar a un ritmo muy superior a la capacidad humana.

Así pues, cuando pensamos en películas de ciencia ficción en las que los robots se apoderan del mundo, estos son los dos tipos de IA a los que se hace referencia, siendo la ASI la más común. Como era de esperar, ambos conceptos son intrínsecamente aterradores.

¿Por qué la declaración de Altman debería preocuparnos?

Por eso, las afirmaciones de Altman de que ya hemos cruzado el umbral, que ya hemos entrado en un ámbito en el que es posible alcanzar la AGI e incluso la ASI, han causado bastante revuelo. No está diciendo que hayamos alcanzado la AGI todavía, pero cree que vamos en la dirección correcta y que estamos bien encaminados.

Según Altman, los avances en el aprendizaje automático y las redes neuronales están ocurriendo más rápido de lo que nadie predijo hace una década. Herramientas como ChatGPT, la síntesis de voz, los agentes autónomos y los sistemas multimodales han avanzado rápidamente nuestras expectativas sobre lo que puede hacer la IA. Y, con cada avance, nos acercamos poco a poco a sistemas que se asemejan a la AGI tanto en su comportamiento como en su potencial. Aunque todavía no hemos llegado a ese punto, el comentario de Altman sugiere que puede que hayamos entrado en una fase de impulso, en la que el progreso se acumula, mientras que, al mismo tiempo, la capacidad humana para detenerlo o evitarlo por completo está disminuyendo rápidamente.

Inteligencia artificial

Crédito de imagen: depositphotos.com

Una perspectiva bastante aterradora

Entonces, ¿por qué hace Altman estas afirmaciones? ¿Hay que preocuparse o se trata simplemente de una estrategia de relaciones públicas para generar debate? Al fin y al cabo, es el director ejecutivo de una de las empresas de IA más exitosas del mundo: su trabajo es mantener la relevancia de OpenAI,.

No se puede negar que alguien como Altman tiene un conocimiento bastante profundo de la tecnología de IA, mucho más allá de la persona común, como líder de OpenAI; sus pensamientos y opiniones profesionales no son, en absoluto, irrelevantes. Sin embargo, dicho esto, muchos piensan que esta declaración en particular se trata principalmente de agitar las cosas, a falta de un término mejor.

Si tenemos en cuenta las opiniones de otros expertos con mucha experiencia y conocimientos en la materia, estas son muy variadas: algunos creen que aún nos quedan muchas décadas para llegar a la AGI, otros están convencidos de que llegará a principios de la década de 2030 y hay todo un grupo que se mantiene firme en su opinión de que la AGI, por no hablar de la ASI, es totalmente imposible. Entonces, si nadie más está de acuerdo en esto, ¿cómo puede Altman estar tan seguro de su opinión? Pero lo más importante, ¿cuál es realmente su opinión?

Bueno, la respuesta, según algunos, es que en realidad no está diciendo tanto como creemos. La afirmación de Altman de que “ya hemos cruzado el punto de no retorno” fue intencionadamente tan vaga como inquietante. Es una afirmación lo suficientemente audaz como para hacer que tanto expertos como legos se detengan a pensar, pero sigue siendo lo suficientemente difusa e imprecisa como para pasar desapercibida y evitar que se le tilde de “poco realista” o “alarmista”. ¿Está diciendo realmente algo nuevo?

Porque, aunque su declaración parece bastante aterradora y propia de la ciencia ficción a primera vista, lo que realmente significa, si la llevamos al extremo (por el bien del argumento), es que probablemente nos estamos encaminando hacia lo que podría ser, potencialmente, el camino que algún día, en el futuro, tal vez nos lleve a la AGI, o a algo vagamente similar. Pero, ¿no es esto algo de lo que ya somos en cierta medida conscientes?

Como afirma el Dr. Lance Elliot, científico de IA de renombre mundial, en un artículo publicado recientemente en Forbes, Altman ha cambiado constantemente sus definiciones y plazos relacionados con la AGI y la ASI, lo que dificulta seguir sus predicciones para el futuro y, en cierta medida, interpretar el enfoque del director ejecutivo para comprender lo que estas perspectivas significan para la humanidad, tanto en el lado positivo como en el negativo.

Y, independientemente de tu cargo, experiencia o conocimientos, ¿quién puede decir realmente qué le depara el futuro a la humanidad en lo que respecta al desarrollo de la IA o cualquier otra cosa? El Dr. Elliot hace referencia a una cita muy acertada de Franklin D. Roosevelt, quien dijo: “Hay tantas opiniones como expertos”, y en este caso, probablemente sea prudente tener en cuenta esta idea.

En última instancia, aunque la idea de que la humanidad supere el «horizonte de sucesos» pueda parecer una afirmación grandilocuente y atrevida en un primer momento, muchos se inclinan más por el hecho de que, en realidad, Sam Altman ha conseguido utilizar una frase y una declaración grandilocuentes y conmovedoras para decir un montón de cosas que ya sabíamos. ¿Por qué? Para hacernos hablar.

Y, oye, hay que quitarse el sombrero ante Altman. Al fin y al cabo, estamos hablando, ¿no?

[Fuente: decrypt]

¿Te gustó este contenido? Te invito a compartirlo con tus amigos. Síguenos en nuestra Página de Facebook, para recibir a diario nuestras noticias. También puedes unirte a nuestro Grupo Oficial y a nuestra comunidad en Telegram. Y si crees que hacemos un buen trabajo, considera apoyarnos.

Por: CodigoOculto.com

Crédito imagen de portada: depositphotos.com

Redacción CODIGO OCULTO

Redacción CODIGO OCULTO

Autor

La verdad es más fascinante que la ficción.

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Síguenos y únete en nuestras redes sociales

Apoya nuestro trabajo

Con tu ayuda podremos seguir creando contenidos e informándote a diario. Apoya nuestro trabajo. ¡Gracias!

SUSCRÍBETE GRATIS A NOTICIAS

Síguenos en Telegram

Conócenos

Código oculto

La historia y sus misterios, civilizaciones antiguas, Ovnis, Vida extraterrestre, Complots. Información alternativa para liberar mentes. Leer más

Obras registradas

Safe Creative #1803242717113

Sitios recomendados

Exploración OVNI

También te podría interesar…