Ludzki mózg jest niezwykły, ponieważ działa przy minimalnym zużyciu energii, w przeciwieństwie do dużych modeli sztucznej inteligencji
Urszula Lesman
Interdyscyplinarny zespół składający się z badaczy z Centrum Poznania i Społeczności oraz Grupy Nauki o Danych w Instytucie Nauk Podstawowych (IBS) w południowokoreańskim mieście Daejeon odkrył uderzające podobieństwo między przetwarzaniem pamięci w modelach sztucznej inteligencji (AI) a hipokampem ludzkiego mózgu – częścią umieszczoną w płacie skroniowym kory mózgowej kresomózgowia. To nowe odkrycie daje nowe spojrzenie na konsolidację pamięci, czyli proces przekształcający wspomnienia krótkotrwałe w długoterminowe w systemach AI.
Jak uczy się ludzki mózg
W wyścigu rozwoju sztucznej inteligencji ogólnej, w którym przodują OpenAI i Google DeepMind, ważnym przedmiotem zainteresowania badawczego stało się zrozumienie i replikacja inteligencji podobnej do ludzkiej. Centralnym elementem tych postępów technologicznych jest model Transformer. Kluczem do potężnych systemów sztucznej inteligencji jest zrozumienie, w jaki sposób uczą się i zapamiętują informacje. Koreański zespół naukowców zastosował zasady uczenia się ludzkiego mózgu, koncentrując się w szczególności na konsolidacji pamięci poprzez receptor NMDA w hipokampie, w modelach AI.
Receptor NMDA działa jak inteligentne drzwi w mózgu, które ułatwiają uczenie się i tworzenie pamięci. Kiedy w mózgu występuje substancja chemiczna zwana glutaminianem, komórka nerwowa ulega pobudzeniu. Z drugiej strony jon magnezu działa jak mały odźwierny blokujący drzwi. Dopiero gdy ten jonowy strażnik odsunie się na bok, substancje mogą przedostać się do komórki. Jest to proces, który pozwala mózgowi tworzyć i przechowywać wspomnienia, a rola strażnika (jonu magnezu) w całym procesie jest dość specyficzna.
Zespół dokonał fascynującego odkrycia: model Transformera wydaje się wykorzystywać proces przekazywania informacji podobny do receptora NMDA w mózgu. To podpowiedziało naukowcom, że być może da się w AI zastosować ten sam mechanizm co w ludzkim mózgu.
Wiadomo, że w mózgu zwierząt niski poziom magnezu osłabia funkcję pamięci. Naukowcy odkryli, że pamięć długoterminową w Transformerze można poprawić poprzez naśladowanie receptora NMDA. Podobnie jak w mózgu, gdzie zmieniający się poziom magnezu wpływa na siłę pamięci, modyfikacja parametrów Transformera w celu odzwierciedlenia działania bramkującego receptora NMDA doprowadziła do poprawy pamięci w modelu AI.
Sztuczna inteligencja będzie tańsza i wydajniejsza
– To badanie stanowi kluczowy krok w rozwoju sztucznej inteligencji i neuronauki. Pozwala nam to głębiej zagłębić się w zasady działania mózgu i opracować bardziej zaawansowane systemy sztucznej inteligencji w oparciu o te spostrzeżenia – powiedział C. Justin LEE, dyrektor instytutu zajmujący się neurologią.
– Ludzki mózg jest niezwykły, ponieważ działa przy minimalnym zużyciu energii, w przeciwieństwie do dużych modeli sztucznej inteligencji, które wymagają ogromnych zasobów. Nasza praca otwiera nowe możliwości dla tanich i wydajnych systemów sztucznej inteligencji, które uczą się i zapamiętują informacje tak jak ludzie – dodaje CHA Meeyoung, analityk danych w zespole i w KAIST.