Nagrody Nobla w dziedzinie fizyki otrzymali John J. Hopfield i Geoffrey E. Hinton. Docenione przez Szwedzką Królewską Akademię Nauk badania nad uczeniem maszynowym za pomocą sztucznych sieci neuronowych komentuje prof. dr hab. Włodzisław Duch z Wydziału Fizyki, Astronomii i Informatyki Stosowanej.
Królewska Szwedzka Akademia Nauk uhonorowała dwóch naukowców za "fundamentalne odkrycia i wynalazki umożliwiające uczenie maszynowe za pomocą sztucznych sieci neuronowych". Nagrodą podzielą się prof. John J. Hopfield z Uniwersytetu Princeton oraz prof. Geoffrey E. Hinton z Uniwersytetu w Toronto. Doceniono ich m.in. za wykorzystanie fizyki do skonstruowania metod, które pomogły położyć podwaliny pod dzisiejsze potężne uczenie maszynowe. John Hopfield stworzył strukturę, która może przechowywać i rekonstruować informacje. Geoffrey Hinton wynalazł metodę umożliwiającą niezależne odkrywanie właściwości danych, która stała się ważna w obecnie używanych dużych sztucznych sieciach neuronowych.
Naśladowanie mózgu
- Dzisiaj rzadko słyszę w debacie publicznej, by przy okazji rozmowy o sztucznej inteligencji (AI) padały takie słowa jak uczenie maszynowe lub sieci neuronowe. A tak naprawdę to one są podwaliną dla AI – tłumaczy prof. dr hab. Włodzisław Duch. - Przez wiele lat, mniej więcej tak do końca ubiegłego wieku, sztuczna inteligencja rozwijała się, próbując opisać świat za pomocą naturalnego języka, słów, symboli, twierdzeń logicznych. Rozumowanie polegało na wymyślaniu strategii, manipulowaniu różnymi regułami w celu dojścia do wniosków. To było "symboliczne" podejście do sztucznej inteligencji, nazywane dzisiaj "good old fashion AI" (GOFAI), czyli dobrą tradycyjną sztuczną inteligencją, zrozumiałą dla człowieka.
W ten sposób nie można było jednak stworzyć dobrego systemu do dialogu w języku naturalnym, rozpoznawania obrazów albo ich analizy czy zamiany mowy ludzkiej na tekst. Jedynym system, który to potrafił, były sieci neuronowe w ludzkich mózgach.
Dzięki pionierskim pracom laureatów właśnie przyznanej Nagrody Nobla z fizyki, system ten przeniósł się również do sztucznych sieci neuronowych – tłumaczy prof. Duch. - Dzięki temu i paru nowszym algorytmom udało się stworzyć wielkie sieci neuronowe przetwarzające bardzo różne informacje - teksty, obrazy, wideo, mowę - na wielu etapach. To sieci mające nawet parę tysięcy miliardów parametrów, które pozwalają się im nauczyć wszystkiego. To się wydaje bardzo dużo, ale w naszych głowach wciąż mamy o wiele więcej odpowiedników takich parametrów, bo ok. 100 tys. miliardów parametrów, czyli połączeń pomiędzy neuronami, które zmieniają się w wyniku nauki czy pamiętania nowych zdarzeń.
Fundamenty pod sztuczną inteligencję
- Bez wątpienia zarówno John J. Hopfield i Geoffrey E. Hinton są pionierami w zakresie uczenia maszynowego. W latach 80., kiedy mało kto się zajmował sieciami neuronowymi, Hopfield starał się opublikować interesującą pracę o swoim modelu pamięci skojarzeniowej, zwanym obecnie modelem Hopfielda – tłumaczy prof. Duch. - Na jednej z konferencji opowiadał, że tej pracy nigdzie nie chcieli przyjąć, wydawała się zbytnim uproszczeniem. W końcu udało mu się ją opublikować w piśmie "Proceedings of the National Academy of Sciences", ale tylko dlatego, że sam był w nim redaktorem.
Był to najprostszy model, a jego działanie przypominało to, co dzieje się w mózgu, kiedy sobie coś przypominamy.
Model sieci, którą stworzył, pozwala na podstawie częściowej informacji odtworzyć resztę. Podobnie jak robią to ludzie. Czasami wystarczy nam wskazówka, żebyśmy przypomnieli sobie szczegóły wydarzenia z nią związane – wyjaśnia prof. Duch. - W sieci Hopfielda wzorce aktywacji jej elementów (odpowiadających neuronom) pozwalają zapamiętać obrazy i różne informacje. Wystarczy pokazać jej fragment wzorca, by sieć odtworzyła całą informację prezentowaną w czasie nauki.
Drugi z laureatów, Geoffrey E. Hinton , w 1996 r. z Davidem Rumelhartem i Ronaldem J. Williamsem opublikował pracę "Szukanie reprezentacji za pomocą wstecznej propagacji błędu" w piśmie "Nature". Uznano ją za przełomową.
Przed tym okryciem sieci neuronowe nie były np. w stanie nauczyć się rozpoznawania na podstawie danych medycznych czy osoba jest chora, czy zdrowa. By to stwierdzić, sieć neuronowa musi wytworzyć wewnętrzną reprezentację wiedzy o świecie na podstawie informacji, które są używane do jej trenowania. I to się właśnie tym naukowcom udało, stworzyli algorytm pozwalający na automatyczne uczenie sieci – tłumaczy prof. Duch. - Ich metoda, nazywana "wsteczną propagacją błędu", polegała na tym, że na podstawie błędu sieci zmienia się jej parametry, cofając informację o tym błędzie przez wszystkie elementy sieci tak, by przy następnej próbie błąd był mniejszy.
Przez wiele lat głównie na tej metodzie naukowcy opierali się, ucząc sieci neuronowe. Niestety działa ona tylko w przypadku sieci dosyć prostych. Natomiast do sieci złożonych, gdzie jest wiele transformacji, potrzebne było coś nowego.
- W roku 2015 Geoffrey Hinton wraz z Yannem LeCun i Yoshuą Bengio przedstawili w jednej swojej pracy algorytm, który pokazywał jak uczyć sieci, w których jest wiele transformacji wejściowych informacji. Ten algorytm nazwano głębokim uczeniem – tłumaczy prof. Duch. - To jest metoda fundamentalna, pozwalająca na rozwiązywanie złożonych problemów, takich jak rozumienie sensu słów czy rozpoznawanie co jest na zdjęciach.
To dopiero początek
W fizyce wykorzystujemy sztuczne sieci neuronowe w szerokim zakresie dziedzin. Praca laureatów już przyniosła wielkie korzyści - podkreśla Ellen Moons, przewodnicząca Komitetu Noblowskiego w dziedzinie fizyki.
Odkrycia noblistów odgrywają istotną rolę w wielu badaniach naukowych, w tym w sortowaniu i analizie ogromnych ilości danych. Dzięki temu możliwe było m.in. odkrycie cząstki Higgsa. Inne zastosowania obejmują redukcję szumów w pomiarach fal grawitacyjnych, które pochodzą ze zderzających się czarnych dziur, przydatne są także przy poszukiwaniu egzoplanet. Technologia ta jest również wykorzystywana do określania właściwości biomolekuł, m.in. do obliczania struktury cząsteczek białek, lub nowych materiałów, które już w najbliższej przyszłości mogą przyczynić się do stworzenia wydajniejszych ogniw słonecznych.