La forma en que nuestros cerebros aprenden información nueva, por décadas ha desconcertado a científicos ya que a diario nos encontramos con tanta nueva información y nuestros cerebros almacenan lo que consideran importante y olvidan el resto de la manera más eficiente que cualquier computadora que hayamos construido.
Resulta que esto podría ser controlado por las mismas leyes que rigen la formación de las estrellas y la evolución del Universo, un equipo de físicos ha demostrado que, a nivel neuronal, el proceso de aprendizaje podría ser limitado por las leyes De la termodinámica.
“La mayor importancia de nuestro trabajo es que llevamos la segunda ley de la termodinámica al análisis de redes neuronales”, dijo el investigador principal Sebastian Goldt de la Universidad de Stuttgart en Alemania.
La segunda ley de la termodinámica es una de las leyes de física más famosas que tenemos, y afirma que la entropía total de un sistema aislado siempre aumenta con el tiempo.
La entropía es una cantidad termodinámica que a menudo se conoce como una medida del desorden en un sistema. Lo que esto significa es que, sin energía adicional que se pone en un sistema, las transformaciones no pueden ser revertidas, las cosas van a ser progresivamente más desordenadas, porque son más eficientes de esa manera. Actualmente la entropía es la principal hipótesis de por qué la flecha del tiempo sólo marcha hacia delante. La segunda ley de la termodinámica dice que no puedes desromper un huevo, porque bajaría la entropía del Universo, y por eso siempre habrá un futuro y un pasado.
Pero, ¿qué tiene que ver esto con la manera en que nuestros cerebros aprenden? Al igual que el enlace de los átomos y la disposición de las partículas de gas en las estrellas, nuestros cerebros están diseñados para encontrar la forma más eficiente de organizarse.
“La segunda ley es una declaración muy poderosa sobre cuáles son las transformaciones posibles, y el aprendizaje es sólo una transformación de una red neuronal a expensas de la energía”, explicó Goldt.
Si tienes en cuenta el hecho de que el aprendizaje en su forma más simple está controlado por miles de millones de neuronas disparando dentro de nuestro cerebro, a continuación, encontrar patrones en ese rendimiento de energía se convierte en un poco más fácil.
Para demostrar cómo funciona, Goldt y su equipo pusieron en marcha una red neuronal es decir un sistema informático que emulan la actividad de las neuronas en el cerebro humano. “Prácticamente todos los organismos recopilan información sobre su ambiente ruidoso y construyen modelos a partir de esos datos, principalmente utilizando redes neuronales”. Lo que los investigadores estaban buscando es cómo las neuronas filtran el ruido, y sólo responden a entradas sensoriales importantes.
Basaron sus modelos en algo llamado teoría Hebbiana que describe un mecanismo básico de plasticidad sináptica en el que el valor de una conexión sináptica se incrementa si las neuronas de ambos lados de dicha sinapsis se activan repetidas veces de forma simultánea, lo que básicamente significa que, como las células mejoran al dispararse en ciertos patrones, los pensamientos resultantes que se obtienen en nuestros cerebros son más reforzados.
Utilizando este modelo, el equipo demostró que la eficiencia de aprendizaje estaba limitada por la producción de entropía total de una red neuronal. Se dieron cuenta de que cuanto más lenta una neurona aprende, menos calor y entropía produce, lo que aumenta su eficiencia.
¿Qué significa eso para usted y para mí? Desafortunadamente, el resultado no nos dice mucho acerca de cómo aprender mejor o más inteligente.
Tampoco proporciona ninguna solución mágica para crear computadoras que puedan aprender tan eficientemente como el cerebro humano. Estos resultados particulares sólo pueden aplicarse a algoritmos de aprendizaje simples que no usen retroalimentación.
Pero lo que los investigadores han hecho es poner una nueva perspectiva en el estudio del aprendizaje, y proporcionó pruebas de que nuestras neuronas siguen las mismas leyes termodinámicas que el resto del Universo. Tampoco son los primeros en pensar en nuestros cerebros en términos de termodinámica. El año pasado, un equipo de Francia y Canadá propuso que la conciencia podría ser simplemente un efecto secundario de la entropía, y nuestros cerebros organizándose de la manera más eficiente.
“Encontramos un resultado sorprendentemente simple: los estados de vigilia normales se caracterizan por el mayor número de configuraciones posibles de interacciones entre las redes cerebrales, que representan valores de entropía más altos”, escribieron en ese momento.
Aún estamos muy lejos de entender cómo funcionan nuestros cerebros, y estos son sólo dos estudios de muchos que han intentado identificar por qué nuestras neuronas se conectan y funcionan de la manera que lo hacemos.
Pero cada pista nueva nos acerca a desbloquear las claves del enorme poder de nuestros cerebros y con suerte aprender a aprovechar eso en sistemas artificiales.
“Tener una perspectiva termodinámica en las redes neuronales nos da una nueva herramienta para pensar en su eficiencia y nos da una nueva forma de evaluar su desempeño”, dijo Goldt.
La investigación ha sido publicada en Physical Review Letters.