La computación neuromórfica es un método de ingeniería informática en el que los elementos de una computadora se modelan a partir de los sistemas del cerebro y el sistema nervioso humanos. El término se refiere al diseño de elementos informáticos tanto de hardware como de software.
Los ingenieros neuromórficos se basan en varias disciplinas, incluidas la informática, la biología, las matemáticas, la ingeniería electrónica y la física, para crear sistemas neuronales artificiales inspirados en estructuras biológicas.
Hay dos objetivos generales de la computación neuromórfica (a veces denominada ingeniería neuromórfica). La primera es crear un dispositivo que pueda aprender, retener información e incluso hacer deducciones lógicas de la forma en que lo hace un cerebro humano: una máquina cognitiva. El segundo objetivo es adquirir nueva información, y quizás probar una teoría racional, sobre cómo funciona el cerebro humano.
¿Cómo funciona la computación neuromórfica?
La red neuronal tradicional y la computación de aprendizaje automático son muy adecuadas para los algoritmos existentes. Por lo general, se centra en proporcionar cálculos rápidos o baja potencia, a menudo logrando una a expensas de la otra.
Los sistemas neuromórficos, por otro lado, logran cálculos rápidos y bajo consumo de energía. Ellos son también:
- masivamente paralelos, lo que significa que pueden manejar muchas tareas a la vez;
- impulsados por eventos, lo que significa que responden a eventos basados en condiciones ambientales variables y solo las partes de la computadora en uso requieren energía;
- alto en adaptabilidad y plasticidad, lo que significa que son muy flexibles;
- capaz de generalizar; y
- fuerte y tolerante a fallas, lo que significa que aún puede producir resultados después de que los componentes hayan fallado.
La alta eficiencia energética, la tolerancia a fallas y las poderosas capacidades de resolución de problemas son también características que posee el cerebro. Por ejemplo, el cerebro usa aproximadamente 20 vatios de energía en promedio, que es aproximadamente la mitad de la de una computadora portátil estándar. También es extremadamente tolerante a los fallos: la información se almacena de forma redundante (en varios lugares) e incluso los fallos relativamente graves de determinadas áreas del cerebro no impiden el funcionamiento general. También puede resolver problemas novedosos y adaptarse a nuevos entornos muy rápidamente.
La computación neuromórfica logra esta función y eficiencia similar a la del cerebro mediante la construcción de sistemas neuronales artificiales que implementan «neuronas» (los nodos reales que procesan la información) y «sinapsis» (las conexiones entre esos nodos) para transferir señales eléctricas utilizando circuitos analógicos. Esto les permite modular la cantidad de electricidad que fluye entre esos nodos para imitar los diversos grados de fuerza que tienen las señales cerebrales que ocurren naturalmente.
El sistema de neuronas y sinapsis que transmiten estos pulsos eléctricos se conoce como red neuronal de picos (SNN), que puede medir estos cambios discretos de señal analógica y no están presentes en las redes neuronales tradicionales que utilizan señales digitales con menos matices.
Los sistemas neuromórficos también introducen una nueva arquitectura de chip que coloca la memoria y el procesamiento juntos en cada neurona individual en lugar de tener áreas designadas separadas para cada una.
Una arquitectura de chip de computadora tradicional (conocida como arquitectura de von Neumann) generalmente tiene una unidad de memoria (MU), una unidad central de procesamiento (CPU) y rutas de datos separadas. Esto significa que la información debe ir y venir repetidamente entre estos diferentes componentes a medida que la computadora completa una tarea determinada. Esto crea un cuello de botella para el tiempo y la eficiencia energética, conocido como cuello de botella de von Neumann.
Al colocar la memoria, un chip neuromórfico puede procesar información de una manera mucho más eficiente y permite que los chips sean simultáneamente muy poderosos y muy eficientes. Cada neurona individual puede realizar procesamiento o memoria, dependiendo de la tarea en cuestión.
Desafíos de la computación neuromórfica
La computación neuromórfica es un campo emergente de la tecnología que en su mayor parte aún se está investigando. Sólo recientemente ha habido intentos de uso práctico de arquitecturas informáticas neuromórficas. Los desarrollos más recientes en hardware neuromórfico tienen el potencial de mejorar la eficiencia de las redes neuronales actuales, que actualmente se ejecutan en unidades de procesamiento gráfico (GPU) algo ineficientes. Sin embargo, un chip cerebral humano funcional aún está muy lejos.
Uno de los principales desafíos que enfrenta el campo de las neurocomputadoras presentado por la experta Katie Schuman en una entrevista con la revista en línea Ubiquity, es que está dominado por desarrolladores de hardware, neurocientíficos e investigadores de aprendizaje automático. Carece de desarrolladores e ingenieros de software. Para que los sistemas neuromórficos entren en producción, se requiere un cambio de pensamiento. Los desarrolladores, investigadores e ingenieros deben estar dispuestos a ir más allá del modo actual de pensar sobre la arquitectura de la computadora y comenzar a pensar fuera del marco tradicional de von Neumann.
Eventualmente, para popularizar la computación neuromórfica, los desarrolladores de software necesitarán crear un conjunto de API, modelos de programación y lenguajes para hacer que las computadoras neuromórficas sean accesibles a los no expertos.
Los investigadores deberán desarrollar nuevas formas de medir y evaluar el rendimiento de estas nuevas arquitecturas para poder mejorarlas. También deberán fusionar la investigación con otros campos emergentes, como la computación probabilística, que tiene como objetivo ayudar a la IA a gestionar la incertidumbre y el ruido.
A pesar de estos desafíos, existe una inversión significativa en el campo. Aunque hay escépticos, muchos expertos creen que la computación neuromórfica tiene el potencial de revolucionar el poder algorítmico, la eficiencia y las capacidades generales de la IA, además de revelar nuevos conocimientos sobre la cognición.
Casos de uso
Los expertos predicen que cuando las computadoras neuromórficas se hagan realidad, funcionarán bien para ejecutar algoritmos de IA en el borde en lugar de en la nube debido a su tamaño más pequeño y bajo consumo de energía. Al igual que un humano, serían capaces de adaptarse a su entorno, recordando lo que es necesario y accediendo a una fuente externa (la nube en este caso) para obtener más información cuando sea necesario.
Otras aplicaciones potenciales de esta tecnología tanto en tecnología de consumo como empresarial incluyen:
- coches sin conductor
- dispositivos domésticos inteligentes
- comprensión del lenguaje natural
- analítica de datos
- optimización de procesos
- procesamiento de imágenes en tiempo real para su uso en cámaras de policía, por ejemplo
Aunque estas aplicaciones prácticas siguen siendo una predicción, existen ejemplos del mundo real de sistemas neuromórficos que existen en la actualidad, aunque principalmente con fines de investigación. Éstos incluyen:
- El chip de Tianjic. Se utiliza para impulsar una bicicleta autónoma capaz de seguir a una persona, sortear obstáculos y responder a comandos de voz. Tenía 40.000 neuronas, 10 millones de sinapsis y funcionaba 160 veces mejor y 120.000 veces más eficientemente que una GPU comparable.
- Chips Loihi de Intel. Tiene 130 millones de sinapsis y 131.000 neuronas por chip. Está optimizado para aumentar las redes neuronales.
- Computadoras Intel’s Pohoiki Beach. Cuenta con 8,3 millones de neuronas. Ofrece un rendimiento 1.000 veces mejor y una eficiencia 10.000 veces mayor que las GPU comparables.
- El chip TrueNorth de IBM. Tiene más de 1 millón de neuronas y más de 268 millones de sinapsis. Es 10,000 veces más eficiente en energía que los microprocesadores convencionales y solo usa energía cuando es necesario.
- Una supercomputadora de muchos núcleos masivamente paralela que fue diseñada en la Universidad de Manchester. Actualmente se está utilizando para el Proyecto Cerebro Humano.
- BrainScaleS de la Universidad de Heidelberg. Utiliza sistemas híbridos neuromórficos que combinan la experimentación biológica con el análisis computacional para estudiar el procesamiento de la información del cerebro.
Los ejemplos de IBM e Intel abordan la computación neuromórfica desde una perspectiva computacional, enfocándose en mejorar la eficiencia y el procesamiento. Los ejemplos de las universidades adoptan un enfoque de neurociencia primero, utilizando computadoras neuromórficas como un medio para aprender sobre el cerebro humano. Ambos enfoques son importantes para el campo de la computación neuromórfica, ya que ambos tipos de conocimiento son necesarios para hacer avanzar la IA.
Computación neuromórfica e inteligencia artificial general (AGI)
El término inteligencia artificial general (AGI) se refiere a la IA que exhibe una inteligencia igual a la de los humanos. Se podría decir que es el santo grial de toda la IA. Las máquinas aún no han alcanzado ese nivel de inteligencia y es posible que nunca lo hayan alcanzado. Sin embargo, la computación neuromórfica ofrece nuevas vías emergentes para avanzar hacia ella.
Por ejemplo, Human Brain Project, que cuenta con la supercomputadora neuromórfica SpiNNaker, tiene como objetivo producir una simulación del funcionamiento del cerebro humano y es uno de los muchos proyectos de investigación activos interesados en AGI.
Se debaten los criterios para determinar si una máquina ha alcanzado el AGI, pero algunos de los que se incluyen comúnmente en la discusión son:
- La máquina puede razonar y emitir juicios en condiciones de incertidumbre.
- La máquina puede planificar.
- La máquina puede aprender.
- La máquina puede comunicarse usando lenguaje natural.
- La máquina puede representar conocimiento, incluido el conocimiento de sentido común.
- La máquina puede integrar estas habilidades en la búsqueda de un objetivo común.
A veces se incluye la capacidad de imaginación, experiencia subjetiva y autoconciencia. Otros métodos propuestos para confirmar el AGI son la famosa Prueba de Turing y la Prueba para estudiantes de Robot College, en la que una máquina se inscribe en clases y obtiene un título como lo haría un humano.
Si alguna vez una máquina alcanzó la inteligencia humana, también hay debates sobre cómo debe manejarse de manera ética y legal. Algunos argumentan que debería ser tratado como un animal no humano a los ojos de la ley. Estos argumentos se han producido durante décadas en parte porque la conciencia en general todavía no se comprende por completo.
Historia de la computación neuromórfica
El predecesor de las neuronas artificiales que se utilizan hoy en día en las redes neuronales se remonta a 1958 con la invención del perceptrón. El perceptrón fue un tosco intento de imitar elementos de redes neuronales biológicas utilizando el conocimiento limitado del funcionamiento interno del cerebro disponible en ese momento. El perceptrón estaba destinado a ser un hardware mecánico personalizado utilizado para tareas de reconocimiento de imágenes por la Marina de los EE. UU. La tecnología recibió un gran revuelo antes de que se diera cuenta de que la tecnología no podía lograr la función necesaria.
La computación neuromórfica fue propuesta por primera vez por el profesor de Caltech Carver Mead en la década de 1980. Mead describió la primera retina de silicio analógica, que presagiaba un nuevo tipo de cálculos físicos inspirados en el paradigma neuronal.
Mead también es citado en una publicación sobre computación neuronal en VLSI analógico diciendo que creía que el sistema nervioso humano no podía hacer nada que las computadoras no pudieran hacer si existía una comprensión completa de cómo funcionaba el sistema nervioso.
Sin embargo, la reciente inversión y la exageración en torno a la investigación neuromórfica se pueden atribuir en parte al uso generalizado y creciente de la inteligencia artificial, el aprendizaje automático y las redes neuronales en la tecnología empresarial y de consumo. También se puede atribuir en gran medida al fin percibido de la ley de Moore entre muchos expertos en TI. La Ley de Moore establece que la cantidad de microcomponentes que se pueden colocar en un chip se duplicará cada año, y el costo seguirá siendo el mismo.
Debido a que la computación neuromórfica promete eludir las arquitecturas tradicionales y lograr nuevos niveles dramáticos de eficiencia, ha ganado mucha atención de los principales fabricantes de chips como IBM e Intel (Intel lanzó Loihi en 2017) con el fin de la Ley de Moore inminente.
Mead, quien destiló las ideas de Gordon Moore y acuñó la Ley de Moore, también se cita en 2013 diciendo: «Pasar a chips multinúcleo ayudó, pero ahora tenemos ocho núcleos y no parece que podamos ir mucho más allá. Gente tienen que chocar contra la pared antes de que presten atención «. Esta creencia refuerza el hecho de que el discurso popular y la exageración en torno a la IA atraviesan altibajos, y las pausas en el interés a menudo se denominan inviernos de IA, y los períodos de mayor interés a menudo surgen como resultado de un problema inmediato que debe resolverse, en este sentido. caso el fin de la Ley de Moore.