«La Inteligencia Artificial (IA) no te odia, ni te ama, pero estás hecho de átomos que puede usar para otra cosa». – Eliezer Yudkowsky, investigador del Machine Intelligence Research Institute.
Dentro de los próximos 50 o 100 años, una IA puede saber más que toda la población del planeta. En ese momento, controlaremos casi todos los dispositivos conectados en el planeta; de alguna manera, su estatus aumentará para parecerse más a un dios, según los principales expertos en el futuro de la inteligencia artificial.
¿Qué sucederá cuando las máquinas superen a los humanos en inteligencia general? ¿Nos salvarán o destruirán? Nick Bostrom sienta las bases para comprender el futuro de la humanidad y la vida inteligente. El cerebro humano tiene algunas capacidades de las que carecen los cerebros de otros animales. Es a estas capacidades distintivas que nuestra especie debe su posición dominante. Si los cerebros de máquinas superaran a los cerebros humanos en inteligencia general, entonces esta nueva superinteligencia podría volverse extremadamente poderosa, posiblemente más allá de nuestro control. Como el destino de los gorilas ahora depende más de los humanos que de la especie en sí, el destino de la humanidad dependerá de las acciones de la superinteligencia de la máquina.
Pero tenemos una ventaja: tenemos que hacer el primer movimiento. ¿Será posible construir una Inteligencia Artificial semilla, para diseñar las condiciones iniciales y hacer que una explosión de inteligencia pueda sobrevivir? ¿Cómo se puede lograr una detonación controlada?
Bostrom dice que la inteligencia artificial se está volviendo más inteligente a pasos agigantados: en este siglo, según las investigaciones, una IA de computadora podría ser tan «inteligente» como un ser humano. Y luego, dice Bostrom, nos alcanzará:
La inteligencia mecánica es el último invento que la humanidad tendrá que realizar”.
Como filósofo y tecnólogo, Bostrom nos pide que pensemos bien sobre el mundo que estamos construyendo en este momento, impulsado por maquinas pensantes ¿Nuestras máquinas inteligentes ayudarán a preservar la humanidad y nuestros valores, o tendrán sus propios valores?
En el vídeo a continuación, el físico y cosmólogo del MIT, Max Tegmark, enfatiza acertadamente que el problema real está en las consecuencias imprevistas de desarrollar una IA altamente competente. La inteligencia artificial no tiene por qué ser malvada y no debe estar encerrada en un marco robótico para causar estragos.
Tegmark dice:
El verdadero riesgo con la inteligencia general artificial no es la malicia sino la competencia. Una IA superinteligente será extremadamente buena para lograr sus objetivos, y si esos objetivos no están alineados con los nuestros, estamos en problemas”.
El autor del Código Da Vinci, Dan Brown, dice que la inteligencia artificial y la conciencia global surgirán para reemplazar nuestro concepto humano de lo divino.
La humanidad ya no necesita a Dios, pero puede, con la ayuda de la inteligencia artificial, desarrollar una nueva forma de conciencia colectiva que cumpla el papel de la religión”.
Para activar los subtítulos en español en el siguiente vídeo, puede consultar esta GUÍA.
Se callo el tipo con ese comentario de dios, ojala esa IA acabe con todos los que creen eso .