Ir al contenido

Enfoques bayesianos de la función cerebral

De Wikipedia, la enciclopedia libre

Los enfoques bayesianos de la función cerebral investigan la capacidad del sistema nervioso para operar en situaciones de incertidumbre de un modo cercano al óptimo prescrito por la estadística bayesiana.[1][2]​ Este término se utiliza en las ciencias del comportamiento y la neurociencia, y los estudios asociados a él suelen tratar de explicar las capacidades cognitivas del cerebro basándose en principios estadísticos. Se suele suponer que el sistema nervioso mantiene modelos probabilísticos internos que se actualizan mediante el procesamiento neuronal de la información sensorial utilizando métodos que se aproximan a los de la probabilidad bayesiana.[3][4]

Orígenes[editar]

Este campo de estudio tiene sus raíces históricas en numerosas disciplinas, como el aprendizaje automático, la psicología experimental y la estadística bayesiana. Ya en la década de 1860, con los trabajos de Hermann Helmholtz en psicología experimental, la capacidad del cerebro para extraer información perceptiva de los datos sensoriales se modelizó en términos de estimación probabilística.[5][6]​ La idea básica es que el sistema nervioso necesita organizar los datos sensoriales en un modelo interno preciso del mundo exterior.

La probabilidad bayesiana ha sido desarrollada por muchos colaboradores importantes. Pierre-Simon Laplace, Thomas Bayes, Harold Jeffreys, Richard Cox y Edwin Jaynes desarrollaron técnicas y procedimientos matemáticos para tratar la probabilidad como el grado de verosimilitud que podría asignarse a una suposición o hipótesis dada basándose en las pruebas disponibles.[7]​ En 1988, Edwin Jaynes presentó un marco para utilizar la probabilidad bayesiana para modelizar los procesos mentales.[8]​ Así, desde el principio se comprendió que el marco estadístico bayesiano tenía el potencial de conducir a conocimientos sobre la función del sistema nervioso.

Esta idea se retomó en la investigación sobre el aprendizaje no supervisado, en particular el enfoque de análisis por síntesis, ramas del aprendizaje automático.[9][10]​ En 1983, Geoffrey Hinton y sus compañeros propusieron ver el cerebro como una máquina que toma decisiones basándose en las incertidumbres del mundo exterior.[11]​ En la década de 1990, investigadores como Peter Dayan, Geoffrey Hinton y Richard Zemel propusieron que el cerebro representa el conocimiento del mundo en términos de probabilidades e hicieron propuestas concretas de procesos neuronales manejables que podrían manifestar una máquina de Helmholtz de este tipo.[12][13][14]

Psicofísica[editar]

Una amplia gama de estudios interpreta los resultados de experimentos psicofísicos a la luz de modelos perceptivos bayesianos. Muchos aspectos del comportamiento perceptivo y motor humano pueden modelarse con la estadística bayesiana. Este enfoque, con su énfasis en los resultados conductuales como expresiones últimas del procesamiento neuronal de la información, también es conocido por modelar decisiones sensoriales y motoras utilizando la teoría bayesiana de la decisión. Algunos ejemplos son los trabajos de Landy,[15][16]​ Jacobs,[17][18]​ Jordan, Knill,[19][20]​ Kording y Wolpert,[21][22]​ y Goldreich.[23][24][25]

Codificación neuronal[editar]

Muchos estudios teóricos se preguntan cómo podría el sistema nervioso aplicar algoritmos bayesianos. Ejemplos de ello son los trabajos de Pouget, Zemel, Deneve, Latham, Hinton y Dayan. George y Hawkins publicaron un trabajo que establece un modelo de procesamiento cortical de la información denominado memoria temporal jerárquica, que se basa en una red bayesiana de cadenas de Markov. Además, relacionan este modelo matemático con los conocimientos existentes sobre la arquitectura del córtex y muestran cómo las neuronas podrían reconocer patrones mediante la inferencia jerárquica bayesiana.[26]

Electrofisiología[editar]

Varios estudios electrofisiológicos recientes se centran en la representación de probabilidades en el sistema nervioso. Algunos ejemplos son los trabajos de Shadlen y Schultz.

Codificación predictiva[editar]

La codificación predictiva es un esquema neurobiológicamente plausible para inferir las causas de la entrada sensorial basándose en la minimización del error de predicción.[27]​ Estos esquemas están relacionados formalmente con el filtrado de Kalman y otros esquemas bayesianos de actualización.

Energía libre[editar]

En la década de 1990, algunos investigadores como Geoffrey Hinton y Karl Friston empezaron a examinar el concepto de energía libre como una medida calculable de la discrepancia entre las características reales del mundo y las representaciones de esas características captadas por modelos de redes neuronales.[28]​ Karl Friston ha intentado recientemente una síntesis en la que el cerebro bayesiano surge de un principio general de minimización de la energía libre.[29][30]​ En este marco, tanto la acción como la percepción se consideran una consecuencia de la supresión de la energía libre, lo que conduce a la inferencia perceptiva y activa y a una visión más encarnada (enactiva) del cerebro bayesiano.[31][32]​ Utilizando métodos bayesianos variacionales, puede demostrarse cómo los modelos internos del mundo se actualizan mediante la información sensorial para minimizar la energía libre o la discrepancia entre la entrada sensorial y las predicciones de esa entrada. Esto puede considerarse (en términos neurobiológicamente plausibles) como codificación predictiva o, en términos más generales, filtrado bayesiano.

De acuerdo con Friston:[33]

La energía libre considerada aquí representa un límite a la sorpresa inherente a cualquier intercambio con el entorno, bajo expectativas codificadas por su estado o configuración. Un sistema puede minimizar la energía libre modificando su configuración para cambiar la forma en que muestrea el entorno, o para cambiar sus expectativas. Estos cambios corresponden a la acción y la percepción, respectivamente, y conducen a un intercambio adaptativo con el entorno que es característico de los sistemas biológicos. Este tratamiento implica que el estado y la estructura del sistema codifican un modelo implícito y probabilístico del entorno.

Este campo de investigación se resumió en términos comprensibles para el profano en un artículo publicado en 2008 en New Scientist, en el que se ofrecía una teoría unificadora de la función cerebral.[34]​ Friston hace las siguientes afirmaciones sobre el poder explicativo de la teoría:

Este modelo de función cerebral puede explicar una amplia gama de aspectos anatómicos y fisiológicos de los sistemas cerebrales; por ejemplo, el despliegue jerárquico de las áreas corticales, las arquitecturas recurrentes que utilizan conexiones hacia delante y hacia atrás y las asimetrías funcionales en estas conexiones. En cuanto a la fisiología sináptica, predice la plasticidad asociativa y, para los modelos dinámicos, la plasticidad dependiente del tiempo de los picos. En cuanto a la electrofisiología, explica los efectos clásicos y extraclásicos del campo receptivo y los componentes de larga latencia o endógenos de las respuestas corticales evocadas. Predice la atenuación de las respuestas que codifican el error de predicción con el aprendizaje perceptivo y explica muchos fenómenos como la supresión de la repetición, la negatividad del desajuste y el P300 en electroencefalografía. En términos psicofísicos, explica los correlatos conductuales de estos fenómenos fisiológicos, por ejemplo, el ''priming'' y la precedencia global.[33]

Es bastante fácil demostrar que tanto la inferencia perceptiva como el aprendizaje se basan en una minimización de la energía libre o en la supresión del error de predicción.[33]

Véase también[editar]

Referencias[editar]

  1. Whatever next? Predictive brains, situated agents, and the future of cognitive science. (2013). Behavioral and Brain Sciences Behav Brain Sci, 36(03), 181-204. doi 10.1017/s0140525x12000477
  2. Whatever next? Predictive brains, situated agents, and the future of cognitive science. (2013). Behavioral and Brain Sciences Behav Brain Sci, 36(03), 181-204. doi 10.1017/s0140525x12000477
  3. Kenji Doya (Editor), Shin Ishii (Editor), Alexandre Pouget (Editor), Rajesh P. N. Rao (Editor) (2007), Bayesian Brain: Probabilistic Approaches to Neural Coding, The MIT Press; 1 edition (Jan 1 2007)
  4. Knill David, Pouget Alexandre (2004), The Bayesian brain: the role of uncertainty in neural coding and computation, Trends in Neurosciences Vol.27 No.12 December 2004
  5. Helmholtz, H. (1860/1962). Handbuch der physiologischen optik (Southall, J. P. C. (Ed.), English trans.), Vol. 3. New York: Dover.
  6. Westheimer, G. (2008) Was Helmholtz a Bayesian?" Perception 39, 642–50
  7. Jaynes, E. T., 1986, `Bayesian Methods: General Background,' in Maximum-Entropy and Bayesian Methods in Applied Statistics, J. H. Justice (ed.), Cambridge Univ. Press, Cambridge
  8. Jaynes, E. T., 1988, `How Does the Brain Do Plausible Reasoning?', in Maximum-Entropy and Bayesian Methods in Science and Engineering, 1, G. J. Erickson and C. R. Smith (eds.)
  9. Ghahramani, Z. (2004). Unsupervised learning. In O. Bousquet, G. Raetsch, & U. von Luxburg (Eds.), Advanced lectures on machine learning. Berlin: Springer-Verlag.
  10. Neisser, U., 1967. Cognitive Psychology. Appleton-Century-Crofts, New York.
  11. Fahlman, S.E., Hinton, G.E. and Sejnowski, T.J.(1983). Massively parallel architectures for A.I.: Netl, Thistle, and Boltzmann machines. Proceedings of the National Conference on Artificial Intelligence, Washington DC.
  12. Dayan, P., Hinton, G. E., & Neal, R. M. (1995). The Helmholtz machine. Neural Computation, 7, 889–904.
  13. Dayan, P. and Hinton, G. E. (1996), Varieties of Helmholtz machines, Neural Networks, 9 1385–1403.
  14. Hinton, G. E., Dayan, P., To, A. and Neal R. M. (1995), The Helmholtz machine through time., Fogelman-Soulie and R. Gallinari (editors) ICANN-95, 483–490
  15. Tassinari H, Hudson TE & Landy MS. (2006). Combining priors and noisy visual cues in a rapid pointing task" Journal of Neuroscience 26(40), 10154–10163.
  16. Hudson TE, Maloney LT & Landy MS. (2008). Optimal compensation for temporal uncertainty in movement planning. PLoS Computational Biology, 4(7).
  17. Knill DC (2005). Reaching for visual cues to depth: The brain combines depth cues differently for motor control and perception. Journal of Vision, 5(2), 103:15.
  18. Battaglia PW, Jacobs RA & Aslin RN (2003). Bayesian integration of visual and auditory signals for spatial localization. Journal of the Optical Society of America, 20(7), 1391–7.
  19. Knill DC (2005). Reaching for visual cues to depth: The brain combines depth cues differently for motor control and perception. Journal of Vision, 5(2), 103:15.
  20. Knill DC (2005). Reaching for visual cues to depth: The brain combines depth cues differently for motor control and perception. Journal of Vision, 5(2), 103:15.
  21. Koerding KP & Wolpert DM (2004). Bayesian integration in sensorimotor learning. Nature, 427, 244–7.
  22. Koerding KP & Wolpert DM (2004). Bayesian integration in sensorimotor learning. Nature, 427, 244–7.
  23. Goldreich, D (28 de marzo de 2007). «A Bayesian perceptual model replicates the cutaneous rabbit and other tactile spatiotemporal illusions.». PLOS ONE 2 (3): e333. Bibcode:2007PLoSO...2..333G. PMC 1828626. PMID 17389923. doi:10.1371/journal.pone.0000333. 
  24. Goldreich, D (28 de marzo de 2007). «A Bayesian perceptual model replicates the cutaneous rabbit and other tactile spatiotemporal illusions.». PLOS ONE 2 (3): e333. Bibcode:2007PLoSO...2..333G. PMC 1828626. PMID 17389923. doi:10.1371/journal.pone.0000333. 
  25. Goldreich, D; Peterson, MA (2012). «A Bayesian observer replicates convexity context effects in figure-ground perception.». Seeing and Perceiving 25 (3–4): 365-95. PMID 22564398. S2CID 4931501. doi:10.1163/187847612X634445. 
  26. George D, Hawkins J, 2009 Towards a Mathematical Theory of Cortical Micro-circuits" PLoS Comput Biol 5(10) e1000532. doi 10.1371/journal.pcbi.1000532
  27. Rao RPN, Ballard DH. Predictive coding in the visual cortex: a functional interpretation of some extra-classical receptive-field effects. Nature Neuroscience. 1999. 2:79–87
  28. Hinton, G. E. and Zemel, R. S.(1994), Autoencoders, minimum description length, and Helmholtz free energy. Advances in Neural Information Processing Systems 6. J. D. Cowan, G. Tesauro and J. Alspector (Eds.), Morgan Kaufmann: San Mateo, CA.
  29. Friston K, The free-energy principle: A unified brain theory?, Nat Rev Neurosci. 2010. 11:127–38
  30. Friston K, Kilner J, Harrison L. A free energy principle for the brain, J Physiol Paris. 2006. 100:70–87
  31. Friston K, A theory of cortical responses, Philos Trans R Soc Lond B Biol Sci. 2005. 360:815–36.
  32. Friston KJ, Daunizeau J, Kilner J, Kiebel SJ. Action and behavior: A free-energy formulation, Biol Cybern. 2010. 102:227–60
  33. a b c Friston K, Stephan KE., Free energy and the brain, Synthese. 2007. 159:417–458
  34. Huang Gregory (2008), "Is This a Unified Theory of the Brain?", New Scientist. May 23, 2008.

Enlaces externos[editar]