El cerebro humano se utiliza como una comparación para saber cómo funciona una computadora. Pero, honestamente, las computadoras no se parecen en nada a los cerebros humanos.
Eso podría cambiar a medida que los investigadores han desarrollado la tecnología informática que utiliza la luz para imitar la funcionalidad de la sinapsis de un nervio, abriendo el camino para el hardware que combina la velocidad de los procesadores modernos con la eficiencia de la capacidad intelectual.
Los cerebros y las computadoras son sistemas que pueden modelar, manipular y almacenar información. A partir de ahí, no tienden a tener todo eso en común.
Mientras que los procesadores en computadoras combinan impulsos eléctricos con pequeños interruptores on-off para realizar funciones, las neuronas usan mareas químicas para distribuir impulsos a través de múltiples canales llamados sinapsis.
La diferencia es significativa en cuanto a la memoria y el consumo de energía – ningún hardware puede acercarse a la eficiencia y las capacidades de almacenamiento de un cerebro humano.
Un equipo de investigadores de Oxford, Münster y Exeter Universities ha dado con lo que consideran un «santo grial» de la informática, creando un circuito integrado fotónico que actúa como una sinapsis.
«El desarrollo de computadoras que funcionan más como el cerebro humano ha sido un santo grial de los científicos durante décadas», dice el investigador senior Harish Bhaskaran de la Universidad de Oxford.
«A través de una red de neuronas y sinapsis, el cerebro puede procesar y almacenar enormes cantidades de información simultáneamente, utilizando sólo unas pocas decenas de vatios de potencia. Las computadoras convencionales no pueden acercarse a este tipo de rendimiento».
Para obtener información técnica, su computadora de escritorio se basa en la arquitectura de von Neumann, que lleva el nombre del renombrado matemático y físico John von Neumann .
Es decir, hay unidades de procesadores para manejar la lógica y la memoria.
Su cerebro no tiene una CPU en la parte delantera y un disco duro en la parte posterior. Las neuronas conectadas en una red de ramificación, separadas por pequeños puentes sinápticos, son procesadores y dispositivos de almacenamiento todo en uno.
Para funcionar, los canales en la membrana del nervio se abren y cierran, enviando ondulaciones de iones cargados entrando y saliendo en una onda mexicana de baja tensión.
Estos son mediados por otros procesos químicos en las puntas de las ramas del nervio. Dependiendo de factores como la fuerza o la frecuencia de la onda, los aumentos de neurotransmisores pueden continuar el mensaje saltando la brecha a otros nervios.
Ese pequeño salto al final de un nervio es el fin del procesamiento neural, actuando como un oficial de control de tráfico que detiene o acelera una señal.
Descritas como plasticidad sináptica, los cambios en este punto de control pueden explicar cómo aprendemos y procesamos nueva información, fortaleciendo algunos circuitos mientras permitimos que otros se marchiten.
La llamada computación neuromórfica aspira a replicar esta forma de combinar el procesamiento y la memoria en un sistema, acercando aún más la biología y la inteligencia artificial.
El truco ha sido hacer un procesador que puede hacer lo que una sinapsis puede hacer.
«Dado que las sinapsis superan en número a las neuronas en el cerebro alrededor de 10.000 a 1, cualquier cerebro-como la computadora debe ser capaz de replicar alguna forma de mímica sináptica. Eso es lo que hemos hecho aquí», dice Wolfram Pernice de la Universidad de Münster.
La sinapsis artificial del equipo se basa en estructuras hechas de un material de cambio de fase (PCM), que almacena y libera cantidades significativas de energía a medida que cambia de un estado a otro.
Las ondas de luz se canalizan a través del material, con pulsos ópticos cambiando el PCM de tal manera que imita la plasticidad de una sinapsis.
Si bien los conceptos no son nuevos, esta es la primera vez que el proceso se ha realizado en la práctica.
«Las computadoras electrónicas son relativamente lentas, y cuanto más rápido las hacemos, más energía consumen», dice el investigador C David Wright de la Universidad de Exeter.
«Las computadoras convencionales también son bastante ‘mudas’, con ninguna de las capacidades de aprendizaje incorporado y de procesamiento paralelo del cerebro humano».
Los procesadores neuromórficos basados en la luz parecen ser la combinación perfecta entre la mente y la máquina.
Esta investigación ha sido publicada en Science Advances.
0 comentarios