Budowanie maszyn mądrzejszych od ludzi jest niebezpieczne – ostrzega były pracownik OpenAI
Michał Duszczyk
Leike w firmie, która stoi za stworzeniem ChatGPT, pracował około trzech lat. Za zadanie miał pilnować, by algorytmy były przede wszystkim bezpieczne. W ubiegłym tygodniu odszedł jednak z pracy, co w branży wywołało niemałe poruszenie. Przyczyn zmian personalnych nie ujawniono, ale teraz sam zainteresowany – za pośrednictwem platformy X – wyciąga na światło dzienne wątpliwości, z jakimi bił się będąc w OpenAI.
Bezpieczeństwo nie jest priorytetem
„Odejście z tej pracy było jedną z najtrudniejszych rzeczy, jakie kiedykolwiek zrobiłem, gdyż dziś musimy pilnie wymyślić, jak sterować i kontrolować systemy sztucznej inteligencji, które są znacznie mądrzejsze od nas. Dołączyłem do OpenAI, bo uważałem, że to będzie najlepsze miejsce na świecie do przeprowadzenia takich badań. Jednak od dłuższego czasu nie mogłem się zgodzić z kierownictwem firmy co do priorytetów. I w końcu dotarliśmy do punktu krytycznego” – ujawnia w serwisie X Jan Leike.
Był szef bezpieczeństwa w OpenAI podkreśla, że firma znacznie większą część swojej „przepustowości” powinna przeznaczyć nie na zwiększanie mocy AI, lecz na przygotowanie się na kolejne generacje dużych modeli językowych (LLM), monitorowanie, gotowość, bezpieczeństwo i wpływ społeczny. „To tematy trudne do rozwiązania i obawiam się, że nie jesteśmy na dobrej drodze, aby te cele osiągnąć” – pisze Leike.
W tweetach alarmuje, iż w ciągu ostatnich lat procesy bezpieczeństwa zeszły na dalszy plan. „A budowanie maszyn mądrzejszych od ludzi jest niebezpieczne. OpenAI bierze na siebie ogromną odpowiedzialność w imieniu całej ludzkości” – tłumaczy ekspert. Zastrzega przy tym, iż świat musi się przygotować na implikacje związane z generalną sztuczną inteligencją (AGI).
Meta: Nie powstałyby odrzutowce
Wpisy Leike skrytykował jednak szef AI w koncernie Meta. Jak przekonuje Yann LeCun, nie powinniśmy zabraniać, ani regulować i ograniczać technologii, którą dopiero rozwijamy. „Zanim wymyślimy, jak kontrolować systemy sztucznej inteligencji znacznie mądrzejsze od nas, musimy mieć choć projekt systemu AI mądrzejszego od kota domowego” – napisał na X.
Jeden z najwybitniejszych ekspertów w branży zasugerował, że wciąż daleko jesteśmy od AGI i dał sygnał, że minie jeszcze wiele lat, nim systemy AI staną się mądrzejsze od zwierząt. „A co dopiero mądrzejsze od ludzi” – zastrzegł.
LeCun przyrównał regulowanie AI do przepisów dla samolotów odrzutowych. „To tak, jakby ktoś powiedział w 1925 r., że musimy pilnie znaleźć sposób na kontrolowanie samolotów, które mogą transportować setki pasażerów z prędkością dźwięku. Trudno byłoby zapewnić bezpieczeństwo długodystansowych odrzutowców pasażerskich przed wynalezieniem silnika turboodrzutowego. Nikt tego nie zrobił, a dziś możemy całkowicie bezpiecznie przelecieć połowę świata odrzutowcami. Zajęło to dziesięciolecia starannej inżynierii i udoskonaleń” – podkreśla Yann LeCun.