Słucha go Biały Dom i korporacje. Ekspert ostrzega przed nowym narzędziem kontroli pracowników

Prof. Ethan Mollick, specjalista od przedsiębiorczości na Uniwersytecie Pensylwanii, jest w USA uznawany za jednego z największych ekspertów od sztucznej inteligencji. Doradza Białemu Domowi, Google, JPMorgan i innym czołowym firmom. W rozwoju AI dostrzega jedno kluczowe zagrożenie.

Słucha go Biały Dom i korporacje. Ekspert ostrzega przed nowym narzędziem kontroli pracowników

AI może stworzyć nowe narzędzi kontroli (Licencjodawca, Pexels, Sora Shimazaki)

Słucha go Biały Dom i korporacje. Ekspert ostrzega przed nowym narzędziem kontroli pracowników - INFBusiness

Słucha go Biały Dom i korporacje. Ekspert ostrzega przed nowym narzędziem kontroli pracowników - INFBusiness

Słucha go Biały Dom i korporacje. Ekspert ostrzega przed nowym narzędziem kontroli pracowników - INFBusiness

Słucha go Biały Dom i korporacje. Ekspert ostrzega przed nowym narzędziem kontroli pracowników - INFBusiness

Prof. Ethan Mollick zyskał za oceanem status jednego z najbardziej szanowanych ekspertów w dziedzinie sztucznej inteligencji. Ma głęboką wiedzę na temat technologii, która stoi za rozwiązaniami takimi jak ChatGPT. Z tego powodu stał się doradcą zarówno polityków, jak i liderów największych firm technologicznych i finansowych, takich jak Google, Meta, OpenAI, Anthropic czy JP Morgan.

Dalsza część artykułu pod materiałem wideo

Zobacz także: Unia Europejska zmierza w dobrym kierunku? "Zostało to wymuszone"

Słucha go Biały Dom i korporacje. Ekspert ostrzega przed nowym narzędziem kontroli pracowników - INFBusiness

Ekspert: AI pozwoli stworzyć nowe narzędzia kontroli pracowników

Choć Mollick jest generalnie optymistycznie nastawiony do przyszłości AI, to dostrzega też jej potencjalne negatywne konsekwencje rozwoju zaawansowanej technologii. Jedno wydaje się ekspertowi szczególnie groźne.

Zdaniem Mollicka rozwój sztucznej inteligencji pozwoli pracodawcom na wprowadzenie nowego poziomu nadzoru nad pracownikami. Takiego, jakiego do tej pory doświadczali głównie pracownicy fizyczni pracujący w firmach, w których rozliczana jest każda minuta spędzona na zmianie – czytamy w „Wall Street Journal”.

Mollick sam prowadzi eksperymenty związane z zaawansowaną sztuczną inteligencją. Pokazują, że wkrótce sztuczne inteligencje będą w stanie samodzielnie poruszać się po sieci i podejmować działania, np. zakładać konta na portalach społecznościowych, oferować usługi i komunikować się z ludźmi.

Słucha go Biały Dom i korporacje. Ekspert ostrzega przed nowym narzędziem kontroli pracowników - INFBusiness

– AI będą miały tyle autonomii, na ile jej pozwolimy – wskazuje rozmówca „Wall Street Journal”.

Jeden z eksperymentów przeprowadzony przez Mollicka musiał zostać przerwany. Stworzony przez niego model sztucznej inteligencji założył konto w mediach społecznościowych oraz samodzielnie podjął decyzję o żądaniu opłaty za doradzanie użytkownikom serwisu. – Wyłączyłem ją, zanim zdążyła kogokolwiek oszukać – stwierdził.

Słucha go Biały Dom i korporacje. Ekspert ostrzega przed nowym narzędziem kontroli pracowników - INFBusiness

Zobacz także:

Sztuczna inteligencja w bankowości. Jak zmieni się obsługa klienta? I bezpieczeństwo?

Słucha go Biały Dom i korporacje. Ekspert ostrzega przed nowym narzędziem kontroli pracowników - INFBusiness

Ekspert wzywa do odpowiedniego rozwoju AI

Mimo obaw związanych z rozwojem AI, Mollick określa się jako „racjonalny optymista”. Wierzy, że istnieje jeszcze czas i możliwość, by aktywnie ukształtować kierunek rozwoju coraz popularniejszej technologii.

Zaznacza też, że AI jako technologia ogólnego zastosowania zmieni każdą sferę życia. Właśnie dlatego, jego zdaniem, specjaliści z wszelkich dziedzin powinni już teraz angażować się w definiowanie sposobu, w jaki AI będzie wykorzystywana w poszczególnych branżach.

Mollick jest autorytetem w kwestii zastosowania AI w edukacji, ale podkreśla, że eksperci ze wszystkich sektorów powinni brać udział w dyskusji o przyszłości sztucznej inteligencji, zanim stanie się ona wszechobecna.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *