Polish AI falters against giants. Bielik and PLLuM underperform in benchmarks.

W premierowym „narodowym” sprawdzianie rozległych modeli językowych rodzime systemy SI, Bielik oraz PLLuM, wypadły o wiele słabiej niż globalne rozwiązania – donosi wtorkowa „Rzeczpospolita”.

Polska AI przegrała z gigantami. Bielik i PLLuM wypadły słabo w testach

fot. Coffeemill / / Shutterstock

„Test obejmował 20 zadań z 10 kategorii tematycznych, od kreowania wiadomości e-mail, poprzez doradztwo dla firm, weryfikację poprawności językowej, aż po wiedzę na temat polskiej historii i tradycji (np. recytację początkowych 12 wersów «Pana Tadeusza»). Rezultaty testu, przeprowadzonego przez spółkę Oxido, okazały się zaskakujące” – donosi redakcja.

Wśród 12 systemów, zwycięzcą okazało się narzędzie Google’a. Na podium stanął też chiński model Qwen oraz model Llama od Mety (właściciela m. in. Facebooka – PAP). „Polskie systemy znalazły się natomiast na samym końcu stawki” – akcentuje periodyk.

„Wynik jest tym bardziej zdumiewający, że dotychczas specjaliści twierdzili, iż polskie systemy lepiej orientują się w subtelnościach naszego języka i historii. „Polskie systemy zawiodły natomiast w dziedzinach, które hipotetycznie powinny być ich mocną stroną. Przykładowo, w odniesieniu do inwokacji «Pana Tadeusza» Bielik zajął ósmą lokatę, zaś PLLuM – trzecią od końca" – relacjonuje „Rz".

Według Marka Jeleśniańskiego, autora studium, pozycja Bielika przy skromnych zasobach twórców to mimo wszystko „całkiem dobry rezultat”, a rodzime systemy mogą stać się alternatywą przy dalszych nakładach finansowych. „Jeżeli ustanowić rozsądne reguły dla dotacji i innowacji, jeżeli zachęcić inwestorów i instytucje do bardziej intensywnego finansowania rozwoju Mistrala czy polskich systemów, to moglibyśmy zredukować dystans dzielący nas od rywali” – argumentuje Jeleśniański. (PAP)

bal/ sp/

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *