Hjärnan

Neurovetenskap och AI – En symbios mellan hjärna och maskin

Alice Heiman

Hjärnan är för närvarande det enda kända exemplet av intelligens på högre nivå.

Därför har hjärnan varit central att studera i strävan efter att förstå mekanismerna som styr intelligens och kognition. Sedan 1940-talet har forskare hämtat inspiration från dess arkitektur och logik för att skapa artificiella neurala nätverk (ANN).

Neurovetenskap har inspirerat området artificiell intelligens (AI), och idag driver den utvecklingen av en ny generation datorer.

Beräkningsmodeller gör det möjligt att systematiskt experimentera med teorier om kognition och testa möjliga mentala algoritmer. Därför bildar neurovetenskap och AI ett synergistiskt tvärvetenskapligt förhållande av ömsesidig insikt och utveckling.

Men hur kompletterar kunskapen om hjärnan och maskiner varandra i jakten på att förstå och använda intelligenta system?

Neuronen

Hjärnan är ett omfattande nätverk av neuroner och gliaceller.

Gliaceller stödjer neuroner genom att utföra många olika uppgifter. De kan tillhandahålla struktur, mekaniskt transportera neuroner i utveckling till sina slutliga platser och skydda nervfibrer med höljen. Dessutom skyddar de nervceller genom att bekämpa sjukdomar och absorbera skadliga kemikalier.

En neuron består av fyra huvuddelar: en cellkropp, dendriter, axoner och axonterminaler.

Dendriter samlar information och skickar den till cellkroppen. Axoner sprider vidare signaler genom aktionspotentialer, som är som en plötslig omkastning av ämnen inuti cellmembranet. Myelinskidor isolerar delar av axoner för att påskynda och förhindra signaler från att störa varandra. Axonterminalerna finns i slutet av axoner och fäster till andra neuroner i “cellulära vägkorsningar” som kallas synapser.

Figur 1: The huvudsakliga komponenterna av en neuron och dess synapser.
Bild från (Martin et al., 1997).

Synapser är indelade i två huvudtyper: excitatoriska och hämmande.

Excitatoriska synapser frisätter signalsubstanser som ökar sannolikheten att en signal fortsätter till nästa neuron. Hämmande synapser minskar istället sannolikheten att signalen fortsätter.

Särskilda receptorer på axonerna känner av olika signalsubstanser. Excitation uppstår när natriumportar öppnas, vilket släpper in natriumjoner i cellen. Hämning är när kaliumportar öppnas och gör att kaliumjoner lämnar cellen.

Balansakten mellan excitation och hämning avgör i slutändan om en signal fortsätter eller inte.

Artificiella neuroner följer liknande principer för input, bearbetning och output.

Varje neuron samlar signalerna från tidigare neuroner och bearbetar dem i en så kallad tröskelfunktion. I likhet med hur en tröskelstimulus bestämmer om en aktionspotential överförs, bestämmer tröskelfunktionen neuronens output beroende på dess input.

Varje koppling representeras dock istället som ett tal, kallad vikt, som ska försöka efterlikna funktionen av de olika synapserna.

Figur 2: En jämförelse mellan en biologisk och artificiell neuron.
Bild från (Pramoditha, 2021).

Biologiska och artificiella neurala nätverk

Många kognitiva funktioner på högre nivå utförs i neocortex, den primära delen av hjärnbarken.

Neocortex är involverad i att bearbeta det vi uppfattar från bland annat våra sinnen, språk, resonemang i tid och rum, samt beslutsfattning. Den består av sex på varandra följande lager bestående huvudsakligen av pyramidala neuroner.

Trots de olika uppgifter som utförs i neocortex, är dess anatomi anmärkningsvärt enformig.

Detta tyder på att hjärnan består av grundläggande beräkningsenheter. Dess funktioner bestäms snarare genom kopplingar och stimulin som kommer från utsidan. Skikten i neocortex bildar en hierarkisk struktur som gör att information kan bearbetas och föras vidare till andra skikt för vidare bearbetning.

Djupa neurala nätverk (DNN) är matematiska modeller som hämtat inspiration från sina biologiska motsvarigheter för att lösa olika uppgifter.

De använder “lager-på-lager”-principen med sammankopplade artificiella neuroner som tillåter information att fortplanta sig genom nätverket. Input-skiktet tar emot inkommande data, de dolda skikten utför beräkningarna och output-skiktet skickar tillbaka de slutliga resultaten (se figur 3).

Hur och med vilka vikter dessa neuroner är kopplade bestämmer hur nätverket fungerar.

När man tränar nätverket har man en lång rad träningsexempel och rätta svar. Vid varje genomkörare låter man nätverket gissa svaret utan att se facit. Med backpropagation-algoritmen jämförs sedan detta resultat med det önskade, och nätverket justeras därefter.

Efter många iterationer kan nätverket lära sig problemstrukturen, vilket gör att det kan hantera nya problem som inte har setts under träning.

Figur 3: Strukturen av ett djupt neuralt nätverk (DNN).
Bild från (Bre et al., 2018).

Förstärkningsinlärning

Backpropagation gjorde det möjligt för DNN:er att lära sig utföra en hel palett av uppgifter – från maskinöversättning till att känna igen cancer i medicinska bilder.

Att jämföra beräkningar med verkligheten resulterade i en metod inom AI som kallas förstärkningsinlärning (engelska Reinforcement Learning), där artificiella “agenter” lär sig av sina erfarenheter baserat på en cykel av handling och belöning.

Framgången med dessa algoritmer inspirerade hjärnforskare att söka efter liknande biologiska processer.

Organismer använder system för belöning och respons för att lära sig och förstärka fördelaktiga beteenden som är nödvändiga för överlevnad. Dopaminneuroner spelar en central roll i att lära sig från erfarenhet. Dessa neuroner, huvudsakligen belägna i mitten av hjärnan, skapar och använder signalsubstansen dopamin för att skicka kemiska signaler.

Om dopamin skickas eller ej beror på vad man tror ska hända och vad som faktiskt sker.

Förutsägelsefelet är alltså skillnaden mellan vad som förutsägs och vad som faktiskt äger rum. Kopplingarna mellan påverkade neuroner blir stärkta, oförändrade eller försvagade som svar på handlingar som överträffar, matchar eller blir värre än förväntat.

Till exempel, som svar på ett oväntat fördelaktigt beteende, frisätts dopamin på de aktiva dendriterna, vilket initierar en “förstärkningssignal” till de närliggande neuronerna.

Figur 4: Ett flödesschema över förstärkningsinlärning.
Bild från (Bhatt, 2018).

En anmärkningsvärd skillnad mellan biologiska och artificiella medel är dock deras krav på data.

ANN:er behöver omfattande dataset för varje given uppgift, medan biologiska organismer kan lära sig och generalisera från endast ett fåtal exempel. Episodiskt minne kan vara avgörande för hur hjärnor utför denna bedrift. Det är en teori om att hippocampus är ansvarig för att tolka ny information som neocortex senare bearbetar och konsoliderar under vila.

Att använda och granska förväntningar stödjer också synen på hjärnan som en slags förutsägelsemaskin.

Att konstant skicka signaler använder mycket av hjärnans energi, men att förutsäga resultat och förlita sig på tidigare kopplingar kan vara en mekanism bakom hjärnans effektivitet.

Forskare inom området neuromorphic computing försöker designa effektivare datorer genom att imitera hjärnan.

De senaste decennierna har framstegen inom databehandlig främst kretsat kring att skala upp och göra kraftfullare datorer med mindre komponenter. Dock finns det fysiska och miljömässiga begränsningar när det kommer till komponenternas storlek och deras energiförbrukning.

Därför kan så kallade neuromorfa chip inspirerade av hjärnan vara avgörande för att kunna utveckla större artificiella neurala nätverk.

Kanske kommer framtidens datorer därmed inte vara digitala utan analoga – där elektriska kretsar kommer att bete sig som de fysiska biologiska system de försöker efterlikna.

Källor som användes i den här artikeln

Ananthaswamy, A.; Artificial Neural Nets Finally Yield Clues to How Brains Learned; Quanta Magazine ; https://www.quantamagazine.org/artificial-neural-nets-finally-yield-clues-to-how-brains-l earn-20210218/, 2022-29-04.

Ananthaswamy, A.; To Be Energy-Efficient, Brains Predict Their Perceptions; Quanta Magazine ; https://www.quantamagazine.org/to-be-energy-efficient-brains-predict-their-perceptions -20211115/, 2022-05-04.

Bre, F., Gimenez, J. M., & Fachinotti, V. D. (2018). Prediction of wind pressure coefficients on building surfaces using artificial neural networks. Energy and Buildings, 158, 1429–1441. https://doi.org/10.1016/j.enbuild.2017.11.045

Bhatt, S. (2018, March 28). 5 Things You Need to Know about Reinforcement Learning. KDnuggets. Retrieved May 11, 2022, from https://www.kdnuggets.com/2018/03/5-things-reinforcement-learning.html

Cramer, B., Billaudelle, S., Kanya, S., Leibfried, A., Grübl, A., Karasenko, V., Pehle, C., Schreiber, K., Stradmann, Y., Weis, J., Schemmel, J., & Zenke, F. (2022). Surrogate gradients for analog neuromorphic computing. Proceedings of theNational Academy of Sciences, 119(4), e2109194119. https://doi.org/10.1073/pnas.2109194119

Hassabis, D., Kumaran, D., Summerfield, C., & Botvinick, M. (2017). Neuroscience-Inspired Artificial Intelligence. Neuron, 95(2), 245–258. https://doi.org/10.1016/j.neuron.2017.06.011

Hawkins, J. & Blakeslee, S. (2004). On Intelligence: How a New Understanding of the Brain Will Lead to the Creation of Truly Intelligent Machines. Times Books.

Kaelbling, L. P., Littman, M. L., & Moore, A. W. (1996). Reinforcement Learning: A Survey. Journal of Artificial Intelligence Research, 4, 237–285. https://doi.org/10.1613/jair.301

Krenker, A., Bešter, J., & Kos, A. (2011). Introduction to the artificial neural networks. Artificial Neural Networks: Methodological Advances and Biomedical Applications. InTech, 1-18.

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444.https://doi.org/10.1038/nature14539

Lee, J.-G., Jun, S., Cho, Y.-W., Lee, H., Kim, G. B., Seo, J. B., & Kim, N. (2017). Deep Learning in Medical Imaging: General Overview. Korean Journal of Radiology, 18(4), 570. https://doi.org/10.3348/kjr.2017.18.4.570

Lui, J. H., Hansen, D. V., & Kriegstein, A. R. (2011). Development and Evolution of the Human Neocortex. Cell, 146(1), 18–36. https://doi.org/10.1016/j.cell.2011.06.03

Nieuwenhuys, R. (1994). The neocortex: An overview of its evolutionary development, structural organization and synaptology. Anatomy and Embryology, 190(4). https://doi.org/10.1007/BF00187291

Pramoditha, R. (2021, Dec 26). The Concept of Artificial Neurons (Perceptrons) in Neural Networks. Medium. Retrieved May 12, 2022, from https://towardsdatascience.com/the-concept-of-artificial-neurons-perceptrons-in-neural -networks-fab22249cbfc

Savvas Realize. (2020). Miller & Levine Biology. Chapter 27.3, page 1. Retrieved May 4, 2022, from https://www.savvasrealize.com/community/program/30e5a5c6-42b8-3c91-a2c6-1ade91 f020ac/20/tier/500d6ce8-6d8e-36fb-b1cc-18ac5e7e4bca/20/lesson/dc1f2cf2-b5eb-337f -b770-0c6e57016972/20/content/ae03845d-01b4-3d68-9c87-8fa8bf41623a/20

Schultz, W. (1998). Predictive Reward Signal of Dopamine Neurons. Journal of Neurophysiology, 80(1), 1–27. https://doi.org/10.1152/jn.1998.80.1.1

Schuman, C. D., Kulkarni, S. R., Parsa, M., Mitchell, J. P., Date, P., & Kay, B. (2022). Opportunities for neuromorphic computing algorithms and applications. Nature Computational Science, 2(1), 10–19. https://doi.org/10.1038/s43588-021-00184-y

Singh, S. P., Kumar, A., Darbari, H., Singh, L., Rastogi, A., & Jain, S. (2017). Machine translation using deep learning: An overview. In 2017 international conference on computer, communications and electronics (comptelix) (pp. 162-167). IEEE.

Whitten, A. (2022, February 17). AI Overcomes Stumbling Block on Brain-Inspired Hardware. Quanta Magazine. Retrieved April 26, 2022, from https://www.quantamagazine.org/ai-overcomes-stumbling-block-on-brain-inspired-hard ware-20220217/

Zwass, V. (2016). Neural network | computing | Britannica. Retrieved May 11, 2022, from https://www.britannica.com/technology/neural-network