Red neuronal cuántica , la enciclopedia libre
Una red neuronal cuántica (QNN) es un modelo de red neuronal que está basado en los principios de la mecánica cuántica. Hay dos aproximaciones diferentes en la investigación de las QNN: de un lado, explotando el procesamiento de información cuántica para mejorar los modelos de redes neuronales actuales (en ocasiones, también viceversa), y, de otro, buscando efectos cuánticos potenciales en el cerebro.
Redes neuronales cuánticas artificiales
[editar]En la aproximación computacional a la investigación sobre redes cuánticas neuronales,[1][2] los científicos intentan combinar los modelos de redes neuronales artificiales (que son muy utilizados en el aprendizaje automático para clasificación de patrones) con las ventajas de información cuántica para desarrollar algoritmos más eficaces (para un análisis, ver).[3] Una de las principales motivaciones para estas investigación es la dificultad de entrenar redes neuronales, especialmente en aplicaciones de macrodatos. Existe la expectativa de que ciertas características de la informática cuántica, como por ejemplo el paralelismo cuántico o los efectos de interferencia y entrelazamiento cuántico, puedan ser utilizados para obtener ventajas sobre las redes clásicas.
Puesto que la implementación de las tecnologías necesarias para la creación de una computadora cuántica sigue en una etapa embrionaria, tales modelos de redes neuronales cuánticas o bien son meramente propuestas teóricas o bien se implementan en modelos híbridos en la que la mayor parte de los cálculos los realiza una computadora clásica, mientras el dispositivo cuántico realiza una pequeña parte en la que se ha demostrado la ventaja cuántica.[4]
La investigación en torno a las redes neuronales cuánticas está dando sus primeros pasos, pero existe un alto número de propuestas con enfoques y rigor matemático muy dispares. La mayoría de ellas están basadas en la idea de reemplazar las neuronas binarias o de Macculloch-Pitt por un cúbit (a las que se puede llamar un quron), resultando en unidades neuronales que puede estar en un estado de superposición (activa y en reposo a la vez).
Idea histórica
[editar]Las primeras teorías sobre computación neuronal fueron publicadas por Subhash Kak, quien señaló la semejanza de la función de activación neuronal con la ecuación de valores propios de la mecánica cuántica.[5] Kak también habla de la aplicación de estas ideas al estudio de las funciones del cerebro y las limitaciones de esta aproximación.[6][7] Ajit Narayanan y Tammy Menneer propusieron una implementación fotónica de un modelo de red neuronal cuántica que está basado en la teoría de los múltiples universos que se derrumban en el modelo deseado tras realizar una medición.[8] Desde entonces se han publicado un número creciente de artículos en revistas de ciencias de la computación, así como en las de física cuántica, para encontrar un modelo de red neuronal cuántico óptimo.
Esquema de una red neuronal cuántica
[editar]El aprendizaje automático con una red neuronal (cuántica) consta de las siguientes etapas (para más detalle, ver Red neuronal artificial):
- Introducción de datos: En primer lugar se deben codificar los datos de entrada a la red.
- Procesamiento de datos: Los datos se procesan a través de las neuronas de la red utilizando unos parámetros variacionales (normalmente denominados pesos), obteniéndose uno o varios datos de salida.
- Entrenamiento: Los datos de salida se comparan con unas etiquetas asociadas a los datos de entradas, que están predefinidas, para calcular la función de pérdida, que mide la diferencia entre éstos. El objetivo del entrenamiento es ajustar los pesos de modo que la se obtenga la mínima pérdida, y por tanto la red ajuste de manera óptima una función entre los datos de entrada y de salida.
Existen diferentes propuestas para aplicar la mecánica cuántica en cada una de estas etapas, de manera que se pueden tener redes híbridas en las que algunas etapas son clásicas y otras son cuánticas.
Problema de la linealidad de la mecánica cuántica
[editar]Las redes neuronales tienen la capacidad de ajustar muchos tipos diferentes de funciones, para lo cual es necesario añadir un componente no lineal en el sistema. Esto se consigue aplicando una función no lineal (función paso, sigmoidea, ReLU, etc) a la salida de cada neurona, la cual se denomina función de activación. Sin embargo, la ecuación de Schrödinger, que determina la evolución de los sistemas cuánticos, es una ecuación lineal. Por tanto, todas las puertas lógicas que se emplean en la computación cuántica se basan en operadores lineales unitarios, siendo uno de los problemas principales a la hora de implementar redes neuronales cuánticas.
Existen ideas para imitar la función de activación de un perceptrón con un formalismo de mecánica cuántica, que van desde medidas especiales[9][10] hasta la postulación de operadores cuántico no lineales (un modelo matemático que está siendo rebatido).[11][12]
También se ha propuesto utilizar sistemas cuánticos abiertos. En estos, la evolución del sistema principal junto con el entorno sigue siendo lineal, pero la evolución vista únicamente desde el sistema principal es no lineal. Esto da lugar a la Computación Cuántica Disipativa.[3][13]
Recientemente se ha propuesto una implementación sencilla de la función de activación utilizando el modelo de computación cuántica fundamentada en circuitos por parte de Schuld, Sinayskiy y Petruccione, basándose en el algoritmo cuántico de estimación de fase.[14]
Requisitos de una red neuronal cuántica
[editar]M. Schuld, I. Sinayskiy, F. Petruccione establecieron tres requisitos para que una red neuronal cuántica pueda ser considerada como tal:[3]
- El estado inicial del sistema cuántico debe codificar una cadena binaria de longitud N.
- La red neuronal cuántica debe reflejar uno o más aspectos de los mecanismos básicos de la computación neuronal.
- La evolución está basada en efectos cuánticos, tales como superposición, entrelazamiento o interferencia, y debe ser totalmente consistente con la teoría cuántica.
Neuronas cuánticas y circuitos variacionales
[editar]Y. Cao, G.G. Guerreschi y A. Aspuru-Guzik proponen un modelo de neurona que implementa de forma efectiva una función de activación no lineal.[15] En primer lugar, las señales de las neuronas que conectan con la entrada se combinan linealmente utilizando los pesos variacionales de manera similar a la neurona clásica. Para ello, se aplican rotaciones controladas por los cúbits pertenecientes a las neuronas de la capa anterior y cuyos ángulos son los pesos correspondientes para la combinación lineal. Posteriormente, para aplicar la función no lineal, se aplica otra rotación cuyo ángulo es el resultado de aplicar la función no lineal sobre el resultado de la combinación lineal.
Para poder aplicar la rotación equivalente a la función de activación, esta rotación se aproxima por una clase de circuitos denominados Repetir Hasta el Éxito o RHE (RUS: Repeat Until Success en inglés). Estos circuitos utilizan cúbits auxiliares y les aplican medidas de tal forma que existe una probabilidad de que, tras medir, se haya aplicado la rotación correctamente. Así, tras medir, en función del resultado del cúbit auxiliar, se habrá aplicado la rotación o no, y en caso negativo, debe repetirse el circuito hasta que se consiga el resultado deseado, lo que da lugar al nombre del circuito.
Combinando capas con estas neuronas se obtiene la red neuronal, que finalmente da lugar a una salida que se utiliza para entrenar los pesos variacionales. Una ventaja de estas neuronas es que pueden trabajar sobre una superposición de los datos de entrada, de manera que solamente es necesario ejecutar una vez la red sobre la superposición para entrenar con todos los datos de entrada posibles, aumentando considerablemente el rendimiento frente a las redes clásicas.
Las redes neuronales construidas con estas neuronas han demostrado ser eficaces para problemas de clasificación y memoria asociativa.
Aprendizaje cuántico
[editar]Las redes neuronales cuánticas se pueden entrenar de manera clásica utilizando métodos como el gradiente descendente, calculando la derivada de la función de pérdida o de coste respecto a los pesos, para encontrar la dirección en la que moverse en el espacio de pesos para minimizar la función.
Por otra parte Ricks y Ventura propusieron un algoritmo cuántico para realizar la optimización, que puede obtener ventajas sobre el entrenamiento clásico.[16] En este algoritmo se entrena utilizando una superposición de todos los posibles valores vectores de pesos, y se utiliza un algoritmo de Grover modificado para encontrar los pesos que optimizan el problema.
En el algoritmo cuántico el tiempo requerido aumenta de manera exponencial con el número de pesos. Es por ello que si la red es demasiado grande, se propone un algoritmo en el que los pesos de cada nodo de la red se entrenan cuánticamente de forma independiente manteniendo los demás fijos de forma clásica, eligiendo un nodo de forma aleatoria en cada iteración.
Redes neuronales híbridas
[editar]Debido a las limitaciones de la computación cuántica a día de hoy, es habitual que las redes neuronales se construyan de forma híbrida. Los pasos cuánticos se pueden añadir en cualquiera de los 3 pasos mostrados en el esquema de la red neuronal arriba, es decir, en el codificado de los datos, en su procesamiento, o en el entrenamiento. Un ejemplo de red neuronal híbrida es aquel que tiene neuronas cuánticas pero realiza el entrenamiento clásicamente.
Otro tipo de red neuronal híbrida son las redes neuronales convolucionales utilizadas en la clasificación de imágenes, en las que se sustituyen algunas capas convolucionales del inicio por capas cuánticas, de manera que los datos son mapeados a la red cuánticamente.[17]
Ventaja cuántica
[editar]A día de hoy algunas redes cuánticas han demostrado tener más rendimiento que las redes clásicas. Sin embargo, la supremacía cuántica solo se da en determinadas condiciones, como por ejemplo tener un tipo datos de entrada concretos.[18] A día de hoy éste es un problema abierto.
Uno de los grandes problemas de las redes neuronales clásicas que las redes cuánticas parecen resolver es el efecto de meseta estéril (barren plateau en inglés). Cuando esto ocurre, la función de pérdida tiene zonas muy planas en el espacio de pesos, de manera que el gradiente se desvanece y dificulta el entrenamiento de la red. Se ha demostrado en un ordenador cuántico real que, utilizando capas cuánticas para codificar los datos en la red, reduce este efecto, mejorando el entrenamiento de la red. Sin embargo, no se entiende muy bien cómo ocurre este efecto.[19]
Lógica difusa
[editar]Se ha prestado cierta atención a un modelo inspirado por la mecánica cuántica que usa ideas de la teoría cuántica para implementar una red neuronal basada en lógica difusa.[20]
Memoria asociativa cuántica
[editar]El algoritmo de memoria cuántica asociativa ha sido introducido por Dan Ventura y Tony Martinez en 1999.[21] Los autores no intenta traducir la estructura de las redes neuronales artificiales con la teoría cuántica, sino que proponen un algoritmo para una computadora cuántica basada en circuitos que simulan memoria asociativa. Los estados de memoria (en las redes neuronales de Hopfield están guardados en los pesos de las conexiones neuronales) son escritos en una superposición, y un algoritmo de búsqueda cuántica similar al de Grover recupera el estado de la memoria más cercano a una entrada dada. Una ventaja reside en la capacidad de almacenamiento exponencial de estados de memoria, aun así la pregunta que se mantiene es si el modelo tiene significado teniendo en cuenta el propósito inicial de las redes de Hopfield como una demostración de que una red neuronal puede simular características del cerebro.
Recientemente se ha conseguido modelizar la memoria asociativa cuántica utilizando una red neuronal cuántica que cumple todos los requisitos, gracias a la aplicación de los circuitos RHE.[15]
Redes neuronales cuánticas biológicas
[editar]A pesar de que muchos investigadores de red neuronales cuánticas explícitamente limitan su alcance a una perspectiva computacional, el campo está estrechamente relacionado con investigaciones de efectos cuánticos potenciales en redes neuronales biológicas.[22][23] Modelos de memoria y agentes cognitivos basados en colectivos cuánticos han sido propuestos por Subhash Kak, pero él también señala a problemas concretos de límites de observación y control de estas memorias debido a razones lógicas fundamentales.[24][25] La combinación de la neurociencia y la física cuántica también nutre un debate vívido más allá de las fronteras de ciencia, siendo un ejemplo ilustrativo revistas como NeuroQuantology o el método de curación de Neurología Cuántica.[26][27]
Véase también
[editar]- Inteligencia artificial cuántica
- Aprendizaje automático cuántico
- Redes neuronales artificiales
- Memoria asociativa
Referencias
[editar]- ↑ da Silva, Adenilton J.; Ludermir, Teresa B.; de Oliveira, Wilson R. «Quantum perceptron over a field and neural network architecture selection in a quantum computer». Neural Networks 76: 55-64. doi:10.1016/j.neunet.2016.01.002.
- ↑ Panella, Massimo; Martinelli, Giuseppe. «Neural networks with quantum architecture and quantum learning». International Journal of Circuit Theory and Applications 39: 61-77. doi:10.1002/cta.619.
- ↑ a b c Schuld, M., Sinayskiy, I., & Petruccione, F. (2014). The quest for a quantum neural network. Quantum Information Processing, 13(11), 2567-2586.
- ↑ Di Sipio, R., Huang, J. H., Chen, S. Y. C., Mangini, S., & Worring, M. (2021). The Dawn of Quantum Natural Language Processing. arXiv preprint arXiv:2110.06510.
- ↑ Kak, S. C. (1995). Quantum neural computing. Advances in imaging and electron physics, 94, 259-313.
- ↑ Kak, S. (1996). The three languages of the brain: quantum, reorganizational, and associative. Learning as self-organization, 185-219.
- ↑ Gautam, A., & Kak, S. (2013). Symbols, meaning, and origins of mind. Biosemiotics, 6(3), 301-310.
- ↑ Narayanan, A., & Menneer, T. (2000). Quantum artificial neural network architectures and components. Information Sciences, 128(3-4), 231-255.
- ↑ Peruš, M. (2000). Neural networks as a basis for quantum associative networks. Neural Netw. World, 10(6), 1001-1013.
- ↑ Zak, M., & Williams, C. P. (1998). Quantum neural nets. International journal of theoretical physics, 37(2), 651-684.
- ↑ S. Gupta, R. Zia: Quantum Neural Networks, Journal of Computer and System Sciences 63(3), 355 (2001)
- ↑ J. Faber, G.A. Giraldi: Quantum Models for Artificial Neural Network (2002), Electronically available: https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.617.4060&rep=rep1&type=pdf
- ↑ Verstraete, F., Wolf, M. M., & Cirac, J. I. (2009). Quantum computation and quantum-state engineering driven by dissipation. Nature physics, 5(9), 633-636.
- ↑ M. Schuld, I. Sinayskiy, F. Petruccione: Simulating a perceptron on a quantum computer ArXiv:1412.3635 (2014)
- ↑ a b Cao, Y., Guerreschi, G. G., & Aspuru-Guzik, A. (2017). Quantum neuron: an elementary building block for machine learning on quantum computers. arXiv preprint arXiv:1711.11240.
- ↑ Ricks, B., & Ventura, D. (2003). Training a quantum neural network. Advances in neural information processing systems, 16, 1019-1026.
- ↑ Henderson, M., Gallina, J., & Brett, M. (2021). Methods for accelerating geospatial data processing using quantum computers. Quantum Machine Intelligence, 3(1), 1-9.
- ↑ Huang, H. Y., Broughton, M., Mohseni, M., Babbush, R., Boixo, S., Neven, H., & McClean, J. R. (2021). Power of data in quantum machine learning. Nature communications, 12(1), 1-9.
- ↑ Abbas, A., Sutter, D., Zoufal, C., Lucchi, A., Figalli, A., & Woerner, S. (2021). The power of quantum neural networks. Nature Computational Science, 1(6), 403-409.
- ↑ Purushothaman, G., & Karayiannis, N. B. (1997). Quantum neural networks (QNNs): inherently fuzzy feedforward neural networks. IEEE Transactions on neural networks, 8(3), 679-693.
- ↑ Ventura, D., & Martinez, T. (1999). A quantum associative memory based on Grover’s algorithm. In Artificial Neural Nets and Genetic Algorithms (pp. 22-27). Springer, Vienna.
- ↑ Loewenstein, W. (2013). Physics in mind: a quantum view of the brain. Basic Books.
- ↑ Stapp, H. P. (2004). Mind, matter, and quantum mechanics. In Mind, matter and quantum mechanics (pp. 81-118). Springer, Berlin, Heidelberg.
- ↑ Kak, S. (2013). Biological memories and agents as quantum collectives. NeuroQuantology, 11(3).
- ↑ Kak, S. (2014). Observability and computability in physics. Quantum Matter, 3(3), 172-176.
- ↑ http://www.neuroquantology.com/index.php/journal
- ↑ http://quantumneurology.com/