¿Cuál es la complejidad computacional de una sola neurona?

08:37 13/09/2021 | 2 Lượt xem

nuestros cerebros blandos Parece muy lejos de los chips de silicio sólido en los procesadores de computadora, pero los científicos tienen una larga historia de comparar los dos. Como dijo Alan Turing en 1952: “No nos interesa el hecho de que el cerebro tenga la consistencia de una papilla fría”. En otras palabras, no importa el medio, solo la potencia informática.

Hoy en día, los sistemas de inteligencia artificial más potentes emplean un tipo de aprendizaje automático llamado aprendizaje profundo. Sus algoritmos aprenden procesando grandes cantidades de datos a través de capas ocultas de nodos interconectados conocidos como redes neuronales profundas. Como sugiere el nombre, las redes neuronales profundas se inspiraron en las redes neuronales reales del cerebro, con nodos modelados a partir de neuronas reales o, al menos, a partir de lo que los neurocientíficos sabían sobre las neuronas en la década de 1950, cuando un modelo de una neurona influyente se llamaba perceptrón. nació. Desde entonces, nuestra comprensión de la complejidad computacional de las neuronas individuales se ha expandido drásticamente, por lo que se sabe que las neuronas biológicas son más complejas que las artificiales. ¿Pero por cuánto?

Para averiguarlo, David Beniaguev, Idan Segev y Michael London, todos en la Universidad Hebrea de Jerusalén, entrenaron una red neuronal profunda artificial para imitar los cálculos de una neurona biológica simulada. Demostraron que una red neuronal profunda requiere entre cinco y ocho capas de “neuronas” interconectadas para representar la complejidad de una sola neurona biológica.

Incluso los autores no previeron tal complejidad. “Pensé que sería más simple y más pequeño”, dijo Beniaguev. Esperaba que tres o cuatro capas fueran suficientes para capturar los cálculos realizados dentro de la celda.

Timothy Lillicrap, quien diseña algoritmos de toma de decisiones en la firma de inteligencia artificial DeepMind de Google, dijo que el nuevo resultado sugiere que puede ser necesario repensar la vieja tradición de comparar libremente una neurona en el cerebro con una neurona en el contexto del aprendizaje automático. “Este artículo realmente ayuda a forzar el tema a pensarlo con más cuidado y tratar de averiguar hasta dónde se pueden hacer estas analogías”, dijo.

La analogía más básica entre neuronas artificiales y reales implica cómo manejan la información entrante. Ambos tipos de neuronas reciben señales de entrada y, basándose en esta información, deciden si envían su propia señal a otras neuronas. Si bien las neuronas artificiales se basan en un cálculo simple para tomar esta decisión, décadas de investigación han demostrado que el proceso es mucho más complicado en las neuronas biológicas. Los neurocientíficos computacionales utilizan una función de entrada-salida para modelar la relación entre las entradas recibidas por las ramas largas en forma de árbol de una neurona biológica, llamadas dendritas, y la decisión de la neurona de enviar una señal.

Esta función es la que los autores del nuevo trabajo le enseñaron a imitar a una red neuronal profunda artificial para determinar su complejidad. Comenzaron creando una simulación masiva de la función de entrada-salida de un tipo de neurona con distintos árboles de ramas dendríticas en su parte superior e inferior, conocida como neurona piramidal, en la corteza de una rata. Luego, introdujeron la simulación en una red neuronal profunda que tenía hasta 256 neuronas artificiales en cada capa. Continuaron aumentando el número de capas hasta que alcanzaron el 99% de precisión en el nivel de milisegundos entre la entrada y la salida de la neurona simulada. La red neuronal profunda predijo con éxito el comportamiento de la función de entrada-salida de la neurona con al menos cinco, pero no más de ocho, capas artificiales. En la mayoría de las redes, esto equivale a unas 1.000 neuronas artificiales para una sola neurona biológica.

Los neurocientíficos ahora saben que la complejidad computacional de una sola neurona, como la neurona piramidal de la izquierda, depende de las ramas dendríticas en forma de árbol, que son bombardeadas con señales de entrada. Esto da como resultado cambios de voltaje local, representados por los colores cambiantes de la neurona (rojo significa alto voltaje, azul significa bajo voltaje) antes de que la neurona decida enviar su propia señal, llamada “pico”. Esto alcanza su punto máximo tres veces, como se muestra en los trazos de las ramas individuales a la derecha, donde los colores representan las ubicaciones de las dendritas desde la parte superior (rojo) hasta la inferior (azul).

Vídeo: David Beniaguev

“[The result] forma un puente desde las neuronas biológicas a las neuronas artificiales ”, dijo Andreas Tolias, neurocientífico computacional de Baylor College of Medicine.

Pero los autores del estudio advierten que todavía no es una coincidencia directa. “La relación entre cuántas capas tiene en una red neuronal y la complejidad de la red no es obvia”, dijo London. Entonces, realmente no podemos decir cuánta más complejidad se gana al pasar de, digamos, cuatro capas a cinco. Tampoco podemos decir que la necesidad de 1.000 neuronas artificiales signifique que una neurona biológica sea exactamente 1.000 veces más compleja. En última instancia, es posible que el uso de neuronas artificiales exponencialmente más en cada capa conduzca a una red neuronal profunda con una sola capa, pero probablemente requeriría muchos más datos y tiempo para que el algoritmo aprenda.

Related Posts

Agregar fondos a archivos PDF

Este artículo explicará cómo agregar un fondo a un PDF con Foxit PDF Editor. Para agregar un nuevo fondo, haga lo siguiente: 1. Abra un documento al que desee agregar un fondo y elija...

lên đầu trang