Co dalej ze sztuczną inteligencją? Zmieni nasze życie i wywoła szok

To nie maszyny będą nami rządzić, tylko ci, którzy będą potrafili nimi lepiej manipulować. Nie chodzi tu o auta, koparki, czy nawet o obrabiarki skrawaniem. Chodzi o sztuczną inteligencję. Podejrzewamy już, że zmieni ona zupełnie nasze życie i spowoduje prawdziwy „szok przyszłości”. Ale zupełnie nie wiemy, na czym ten szok będzie polegał i jakie będą jego skutki. Zdjęcie

Sztuczna inteligencja walczy o zaufanie /123RF/PICSEL

Sztuczna inteligencja walczy o zaufanie /123RF/PICSEL Reklama

Trochę ponad rok pod debiucie ChataGPT zadajemy najprostsze pytania – czy inteligentny chatbot, z którym rozmawiamy gładko jak z człowiekiem, powinien nam się przedstawić? A jeśli tego nie robi, to czy jest tylko niegrzeczny, czy już jest przestępcą? Okazuje się, że za takimi właśnie pytaniami kryje się najważniejsze zagadnienie. Na jaki szok jesteśmy skłonni się zgodzić i za jaką cenę?

ChatGPT, prócz zachwytów, które wzbudził, karkołomnych prób wykorzystania jego potencjału (np. w redakcjach, gdzie miałby zastąpić – dziennikarzy), prócz lęków tych, którzy boją się, że szef Chat wyleje ich z pracy, sprowokował także do refleksji. Tej refleksji poświęconych było kilka debat listopadowego Open Eyes Economy Summit. Co z niej wynika?

Reklama

Uświadomiliśmy sobie właśnie, że ze sztuczną inteligencją mamy wielkie problemy, choć nie jest wcale młódką, jak wskazywałby na to wiek jej najmłodszego dziecka – Chata. Naukowcy są raczej zgodni, że ojcostwo sztucznej inteligencji należy przypisać brytyjskiemu wojskowemu i matematykowi Alanowi Turingowi. W 1950 roku w artykule „Computing Machinery and Intelligence” zastanawiał się, że skoro ludzie korzystają z informacji i rozumu aby rozwiązywać problemy i podejmować decyzje, dlaczego nie miałyby tego robić maszyny? Sztuczna inteligencja jest zatem damą trochę po siedemdziesiątce.   

Alan Turing pisał też, jak budować inteligentne maszyny, i jak testować ich inteligencję. Jego artykuł zaliczono wówczas do literatury science-fiction, bo ówczesne komputery potrafiły wprawdzie wykonywać polecenia, ale nie umiały zapamiętywać reguł. Przechowywanie danych było ponad to niebotycznie drogie.

Naprawdę dziać zaczęło się sześć lat później, podczas warsztatów naukowców w amerykańskim college’u Dartmouth (Dartmouth Summer Research Project on Artificial Intelligence). Choć warsztaty nie przyniosły żadnego przełomowego odkrycia lub choćby manifestu, nie zakończyły się konkluzjami, szeroko rozpowszechniły ideę badań nad sztuczną inteligencją. Wsparła je kilka lat później amerykańska agencja zajmująca się rozwojem zaawansowanych technologii militarnych DARPA.

Deep Blue mistrzem w szachach

Komputery stopniowo dorastały, zwiększały się ich moce obliczeniowe, otwierano nowe programy, a niektóre, po miliardowych nakładach finansowych, zamykano. Aż w 1997 roku maszyna Deep Blue firmy IBM pokonała mistrza świata w szachach Gary’ego Kasparowa. W systemie operacyjnym Windows Microsoftu opracowano oprogramowanie do rozpoznawania mowy. W 2001 roku Google w swojej wyszukiwarce wprowadził narzędzie do poprawiania pisowni dzięki zastosowaniu uczących się systemów, a w 2006 roku – przełomowego dla tych, których interesują sprawozdania banku centralnego Turcji – tłumacza Google.      

Choć o możliwościach sztucznej inteligencji mówi się od kilku dobrych lat, dopiero ChatGPT zmienił postrzeganie stojących przed nią możliwości. Jedni mówią więc o cudownych narzędziach, jakie sztuczna inteligencja da nam do ręki. Inni – o zagrożeniach, jakie ze sobą niesie. Jedni przedstawiają wizję, jak to homo sapiens wylegują się na plażach pod palmami, gdy obiad gotują im roboty. A inni – jak ludzie stają się niewolnikami maszyn, które okazały się tak inteligentne, że przejęły nad nimi władzę. O jakiej nie pomyślelibyśmy dziedzinie naszej pracy czy działalności wyobraźnia podpowiada wszelkiego rodzaju scenariusze co sztuczna inteligencja może zrobić dobrego i jaką wyrządzić nam krzywdę.

A tymczasem sztuczna inteligencja rozwija się w setkach laboratoriów na całym świecie bez żadnych reguł. Małgorzata Bonikowska, prezeska ośrodka THINKTANK, wykładowczyni Centrum Europejskiego UW zwraca uwagę, że tak kiedyś było z internetem. Zanim się obejrzeliśmy wyrośli internetowi giganci, zwani bigtechami, które dyktują warunki gry całemu światu. Przestrzega, że jeśli spóźnimy się z regulacjami dotyczącymi sztucznej inteligencji, sytuacja może się powtórzyć.

– W internecie przespaliśmy sprawę i pojawiły się tak wielkie podmioty, że bardzo trudno jest wprowadzać teraz mechanizmy korygujące – powiedziała podczas debaty OEES.

– Eliminujmy potencjalne zagrożenia (…) Starajmy się przewidzieć, w jakim kierunku pójdzie technologia i przewidzieć, co nie jest dla nas dobre – dodała.

Czy możemy zahamować postęp?

Z drugiej strony, jeśli sztuczną inteligencję wsadzimy już teraz w sztywne ramy regulacji, to czy nie zatrzymamy jej rozwoju? Możemy zahamować postęp. Sztucznej inteligencji daleko jeszcze do postaci, o której moglibyśmy powiedzieć – to nam się w niej podoba, a to – nie. Jesteśmy mimo wszystko wciąż na bardzo początkowym etapie jej wykorzystywania. Może więc lepiej poczekać do – powiedzmy – osiemdziesiątych urodzin?

– Sens ma regulowanie wtedy, gdy coś się rozwinęło – mówił Krzysztof Kluza z Akademii Górniczo-Hutniczej w Krakowie.

Problem polega na tym, co regulować? Można np. zabronić sztucznej inteligencji posługiwać się językiem nienawiści. To stosunkowo proste, choć okaże się pewnie mało skuteczne. Globalny konsensus etyczny zabrania tworzenia ludzkich klonów czy manipulowania przy DNA. Ale jakie normy etyczne narzucić sztucznej inteligencji i w jakim zakresie? Od czego zacząć? 

– Granice mogą być inne z perspektywy firmy, nauki i z perspektywy etycznej – mówiła Agnieszka Jankowska, dyrektorka Departamentu ds. Korporacyjnych w T-Mobile Poland.

A może zacząć od podstaw, czyli od danych. One są pokarmem sztucznej inteligencji. Trzeba by karma dla sztucznej inteligencji była przyrządzania zgodnie z prawem. Unia Europejska ma w tym już spore doświadczenia, bo potrafiła uchwalić przełomowy akt dotyczący ochrony danych, zwany w Polsce RODO. Chodzi o to, by zacząć od zastanowienia się jakimi i w jaki sposób pozyskiwanymi danymi możemy karmić sztuczną inteligencję.

– Wychodzimy od zbiorów danych. Musimy zastanowić się, czy jest on etycznie zebrany. Zbiory danych są kluczowe dla rozwiązań AI – mówiła Joanna Jaworek-Kojrakowska,  dyrektorka Centrum Doskonałości Sztucznej Inteligencji w Akademii Górniczo-Hutniczej w Krakowie.

Warzymy strawę dla sztucznej inteligencji

ChatGPT może ułatwić wielu ludziom pracę (czy raczej umilić zabawę?), ale każdy, kto zetknął się z metodologią badań naukowych wie, że nie można mu w pełni zaufać. Dlaczego? Bo uczy się (i tuczy) na ogromnym wysypisku danych, jakim jest internet. Wiadomo, że niekoniecznie wartościowe treści są w nim wysoko pozycjonowane, lecz treści najbardziej popularne, a zawierające często naskórkową, lub wręcz zwodniczą wiedzę. Pomijając już fakt, że w internecie można znaleźć mnóstwo treści zamieszanych przez płaskoziemców. Internet jako zbiór danych to zasadniczy problem sztucznej inteligencji.

– Żyjemy w kulturze klikbajtów. Często sztuczna inteligencja od niej się uczy – powiedział Tomasz Jaworski, niezależny międzynarodowy ekspert transformacji cyfrowej sektora publicznego i wykładowca akademicki.

Jeśli sztuczna inteligencja miałaby być produktem dla każdego, to nie uniknie czerpania wiedzy z tego, co się najlepiej klika w sieci. Ale prócz pokarmu, który jej dostarczamy, ważne jest to, jak nauczymy ją myśleć. Daniel Kahneman, filozof, psycholog i ekonomista, laureat Nagrody Nobla z ekonomii w 2002 roku, napisał książkę, fundamentalną dla wszystkich, którzy zajmują się – jak kiedyś mawiano – teorią poznania, a jak to się określa dziś – kognitywistyką. W książce „Pułapki myślenia” Daniel Kahneman dzieli nasze myślenie na „wolne” i „szybkie”. W bardzo dużym uproszczeniu – „wolne” to jest takie, jakim posługuje się nauka, a więc analityczne, czyli  rozdzielające włos na czworo.

Jak nauczyć myśleć sztuczną inteligencję

A jakie jest myślenie „szybkie”? Tak właśnie myślimy na co dzień, nawet wtedy gdy podejmujemy ważne życiowe decyzje. Myślimy posługując się heurystykami, czyli pewnymi uproszczeniami, czasem stereotypami. Myśląc „szybko” nie zagłębiamy się w istotę problemu, nie dostrzegamy całej jego złożoności, wszystkich okoliczności, ociosujemy problem z wielu „ale”, nie przewidujemy też wszystkich konsekwencji naszych decyzji, podejmuje je automatycznie. Koncentrujemy się na tym, co w danej chwili wydaje się nam najważniejsze, najbardziej korzystne lub co wzbudza w nas emocje.

Zasadniczy problem ze sztuczną inteligencją, jaki będziemy mieć – zdaniem Tomasza Jaworskiego – polega na tym, czy nauczy się ona od nas „szybkiego” myślenia, czy też będzie w stanie myśleć „wolno”.        

Dla sztucznej inteligencji właściwe powinno być myślenie „wolne” – mówił Tomasz Jaworski.

Taki postulat byłby właściwy, ale czy atrakcyjny? Bo przecież odkrycie Daniela Khanemana polegające na tym, iż najczęściej również w ważnych sprawach poprzestajemy na myśleniu „szybkim” dało wiatr w żagle wszelkiej maści manipulatorom i przestępcom. Nauczyli się jak dobrze trafiać do naszych umysłów, żeby odnieść sukces. Taki, jak w USA w 2016 roku. Sztuczna inteligencja może być dla nich jeszcze lepszym narzędziem.

Jak postawić granice, że wygrywa ten, kto lepiej manipuluje opinią publiczną? Twory sztucznej inteligencji (awatary, roboty, chatboty) mogą podszywać się pod człowieka. Czy trzeba tego zabronić? Im więcej wiemy o sztucznej inteligencji, tym więcej zadajemy pytań niż mamy odpowiedzi. Lecz równocześnie coraz silniejszą potrzebę, by do „szoku przyszłości” jakoś się zaadaptować.  

Jacek Ramotowski  

Wideo Odtwarzacz wideo wymaga uruchomienia obsługi JavaScript w przeglądarce. Czy sędziów w Polsce muszą wybierać sędziowie? INTERIA.PL

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *