Sztuczna inteligencja ma ciągotki do tworzenia informacji wyssanych z palca
Michał Duszczyk
Factiverse otrzymał właśnie od inwestorów 1 mln euro na rozwój projektu, który ma ukrócić tzw. halucynacje sztucznej inteligencji. To jedna z głównych bolączek konwersacyjnej AI. Norweska firma w tym celu zamierza użyć swoich narzędzi, opartych o uczenie maszynowe, które dotąd wykorzystywała do weryfikacji treści. System ten pozwoli analizować odpowiedzi generowane przez chatboty i automatycznie wykrywać niedokładne wyniki.
Największe wpadki sztucznej inteligencji
A o błędach popełnianych przez AI przekonuje się coraz więcej osób, a nawet całych firm. Boleśnie doświadczył ich choćby prawnik z Nowego Jorku, który w trakcie jednej z rozpraw użył fałszywych cytatów sądowych, które podrzucił mu ChatGPT. Z kolei np. serwis informacyjny CNET musiał poprawić 41 z 77 swoich artykułów, gdy okazało się, że materiały napisane za pomocą narzędzia AI zawierały nieścisłości. Kłopotów z halucynacjami botów doświadczył sam Microsoft. Zaszyta w usługę Bing sztuczna inteligencja koncernu miała bowiem spowodować liczne błędy w analizach raportów o zarobkach – pisze portal TheNextWeb.
Norweski start-up ma uleczyć więc generatywną AI. Ma w walce z dezinformacją doświadczenie, gdyż od 2019 r. buduje opatentowane modele analizujące treści. Modele te wykorzystują badania Vinay Setty, współzałożyciela firmy, który jest także profesorem nadzwyczajnym w dziedzinie uczenia maszynowego na Uniwersytecie w Stavanger (Setty spędził ponad dekadę na badaniu eksploracji tekstów w celu sprawdzania faktów). Edytor Factiverse AI został uruchomione w zeszłym roku. A teraz zastrzyk gotówki od inwestorów umożliwi sfinansowanie dalszych udoskonaleń. Co ciekawe, pieniądze na walkę z halucynacjami wyłożyli m.in.: Johann Olav Koss , przedsiębiorca i czterokrotny złoty medalista olimpijski w łyżwiarstwie szybkim, oczy Yasmin Namini, była dyrektorka „New York Times”.
Jak skończyć z halucynacjami AI
Ale norweska spółka nie jest jedyną, która szuka leku na halucynacje AI. Nad podobnym projektem pracuje RagaAI, start-up założony przez Gaurava Agarwala, byłego pracownika producentów chipów Nvidia Corp. i Texas Instruments Inc. Firma niedawno pozyskał 4,7 mln dol. na rozwój. A problem, którymi obie spółki się zajmują jest potężny, czego dowodzą badacze z Rangaraya Medical College w Indiach. Przeprowadzili oni doświadczenie, które miało na celu sprawdzić precyzję ChatGPT w generowaniu danych i częstotliwość konfabulacji. Skupili się na materiałach naukowych i ich źródłach, jakie miał dostarczyć rewolucyjny bot od OpenAI. Zadawali pytania, a potem weryfikowali w sieci prawdziwość i dokładność odpowiedzi, a także odniesienia do źródeł.
Wyniki eksperymentu zaskakują – spośród 178 przeanalizowanych odpowiedzi ChatGPT aż 69 nie miało cyfrowego identyfikatora obiektu, czyli tzw. DOI (Digital Object Identifier to ciąg cyfr identyfikujący dowolną własność intelektualną w sieci), a 28 w ogóle nie miało jakichkolwiek odniesień w wyszukiwarce Google’a. To oznacza, że treści te zostały wyssane z palca.