Nuestro cerebro tiene una capacidad de memoria tan grande como todo Internet

Científicos estadounidenses determinaron que la capacidad de memoria del cerebro es 10 veces mayor de lo que se creía, y está en niveles de petabyte, es decir, toda la Internet

Nuestro cerebro tiene una capacidad de memoria tan grande como todo Internet

Autor: Sofia Olea

internet-y-la-memoria

Científicos estadounidenses determinaron que la capacidad de memoria del cerebro es 10 veces mayor de lo que se creía, y está en niveles de petabyte, es decir, toda la Internet. El descubrimiento se logró al medir con precisión el tamaño de las sinapsis neuronales y podría abrir la vía de supercomputadores precisos y de bajo consumo.

El trabajo, que fue realizado por investigadores del Instituto Salk de Estudios Biológicos, responde a una vieja pregunta sobre cómo puede ser el cerebro tan eficiente energéticamente, y podría ayudar a los ingenieros a construir computadores increíblemente potentes, pero que también conserven energía.

Terry Sejnowski, profesor de Salk y co-autor principal del artículo publicado en eLife, afirma: «Hemos descubierto la clave para descubrir el principio de diseño de cómo funcionan las neuronas del hipocampo con baja energía, pero con una alta potencia de cómputo. Nuestras nuevas mediciones de la capacidad de memoria del cerebro aumentan las estimaciones conservadoras por un factor de 10 hasta por lo menos un petabyte, al nivel de la World Wide Web.»

Nuestros recuerdos y pensamientos son el resultado de patrones de actividad eléctrica y química en el cerebro y una parte fundamental de la actividad se produce cuando las neuronas interactúan en la sinapsis. Un cable de salida (un axón) de una neurona se conecta a un cable de entrada (una dendrita) de una segunda neurona.

Las señales viajan a través de la sinapsis en forma de productos químicos llamados neurotransmisores, para contar a la neurona receptora si debe transmitir una señal eléctrica a otras neuronas. Cada neurona puede tener miles de estas sinapsis con miles de otras neuronas.

«La primera vez que reconstruimos cada dendrita, axón, proceso glial y sinapsis de un volumen de hipocampo del tamaño de un solo glóbulo rojo, nos desconcertó un poco la complejidad y la diversidad de las sinapsis», dice Kristen Harris, coautora principal del trabajo y profesora de neurociencia en la Universidad de Texas (Austin), en la web del Instituto. «Aunque esperaba aprender los principios fundamentales de cómo se organiza el cerebro, me sorprendió de verdad la precisión obtenida en los análisis.»

sinapsis

Sinapsis

Las sinapsis son todavía un misterio, a pesar de que su disfunción puede causar una serie de enfermedades neurológicas. Las sinapsis más grandes -con más superficie y con vesículas de neurotransmisores más grandes- son más fuertes, lo que las hace más propensas a activar las neuronas circundantes que las sinapsis medianas o pequeñas.

El equipo de Salk, mientras reconstruía tejido de hipocampo (el centro de memoria del cerebro) de rata en 3D, notó algo inusual. En algunos casos, un solo axón de una neurona formaba dos sinapsis para llegar a una sola dendrita de una segunda neurona, lo que significa que la primera neurona parecía estar enviando un mensaje duplicado a la neurona receptora.

En un primer momento, los investigadores no pensaron mucho sobre esta duplicidad, que se produce alrededor del 10% del tiempo en el hipocampo. Pero Tom Bartol, uno de los miembros de Salk, tuvo una idea: si podían medir la diferencia entre dos sinapsis muy similares como esas, podían hacerse una idea mejor del tamaño de las sinapsis, que hasta ahora sólo habían sido clasificadas como pequeñas, medianas y grandes.

Para ello, los investigadores utilizaron microscopía avanzada y algoritmos computacionales que habían desarrollado para obtener imágenes de cerebros de ratas y reconstruir la conectividad, las formas, los volúmenes y la superficie del tejido cerebral hasta un nivel nanomolecular.

Los científicos esperaban que las sinapsis fueran más o menos similares en tamaño, pero se sorprendieron al descubrir que las sinapsis eran casi idénticas. «Nos quedamos sorprendidos de encontrar que la diferencia en los tamaños de los pares de sinapsis eran muy pequeñas, en promedio sólo del ocho por ciento. Nadie pensó que fuera tan pequeña», dice Bartol.

Debido a que la capacidad de memoria de las neuronas depende del tamaño de la sinapsis, esta diferencia del 8% resultó ser un número clave que el equipo pudo introducir en sus modelos algorítmicos del cerebro, para medir la cantidad de información que potencialmente podría ser almacenada en las conexiones sinápticas.

internet

En términos informáticos

Se sabía que el rango de tamaños de las sinapsis era de 60 a 1 y que la mayoría eran pequeñas. Pero con el conocimiento de que las sinapsis de todos los tamaños pueden variar en márgenes tan pequeños como un ocho por ciento, el equipo determinó que no sólo podía haber unas pocas categorías, sino que podán ser hasta 26 categorías de tamaños de sinapsis.

«Nuestros datos sugieren que hay 10 veces más tamaños discretos de sinapsis de lo que se pensaba«, dice Bartol. En términos informáticos, 26 tamaños de sinapsis corresponden a alrededor de 4,7 «bits» de información.

Anteriormente, se pensaba que el cerebro era capaz de tener sólo uno o dos bits para el almacenamiento de memoria a corto y largo plazo en el hipocampo. «Esto es aproximadamente un orden de magnitud más de precisión de lo que nadie hubiera imaginado», dice Sejnowski.

Fiabilidad

Lo que hace esta precisión desconcertante es que las sinapsis del hipocampo son notoriamente poco fiables. Cuando una señal se desplaza de una neurona a otra, por lo general activa esa segunda neurona sólo el 10 al 20 por ciento de las veces.

«A menudo nos habíamos preguntado cómo podía salir la notable precisión del cerebro de estas sinapsis no confiables», dice Bartol. Una respuesta, según el estudio, es que las sinapsis ajustan su tamaño de forma constante, según las señales que reciben.

Los resultados también ofrecen una explicación de la eficiencia sorprendente del cerebro. El cerebro adulto al despertar genera sólo 20 vatios de corriente continua, tanto como una bombilla de luz muy tenue. El descubrimiento podría ayudar a los informáticos a construir computadores ultraprecisos de bajo consumo, en particular los que emplean «aprendizaje profundo» y redes de técnicas neuronales artificiales capaces de aprendizaje y análisis sofisticados, como el habla, el reconocimiento de objetos y la traducción.

Fuente, ID.


Reels

Ver Más »
Busca en El Ciudadano