Sędzia odrzuca dokumenty obrony, ponieważ zostały one częściowo napisane przez sztuczną inteligencję

Jak podają kanadyjskie media, w sądzie w Ontario w Kanadzie sędzia odrzucił dokumenty przygotowane przez adwokata na potrzeby sprawy karnej z powodu ich modyfikacji przez sztuczną inteligencję.

Sędzia odrzuca dokumenty obrony, ponieważ zostały one częściowo napisane przez sztuczną inteligencję

fot. Zbyszek Kaczmarek / / FORUM

Kilka dni temu sędzia Joseph F. Kenkel odrzucił dokumenty obrony w sprawie napaści. Polecił obrońcy, aby przerobił dokumenty, ponieważ wśród cytowanych odniesień odkrył między innymi nieistniejącą sprawę. „Błędy są liczne i krytyczne” – zacytował wypowiedź sędziego nadawca publiczny CBC. Podkreślił, że narzędzia AI nie powinny być wykorzystywane w przygotowywaniu sprawy.

„Jedna z przytoczonych spraw wydaje się być wyimaginowana. Sąd nie był w stanie zlokalizować żadnej sprawy powiązanej z tym numerem referencyjnym” – powiedział sędzia, cytowany przez Toronto Sun.

Sędzia Kenkel, który od kilku lat zajmuje się sprawami technologicznymi w sądownictwie, został mianowany doradcą ds. technologii prawnych w sądach Ontario cztery lata wcześniej. Jest zaangażowany w działania na rzecz cyfrowej transformacji sądów Ontario i dyskusje na temat roli AI w usługach prawnych, zgodnie ze stroną internetową Manitoba Law Library.

Zobacz takżeJak sztuczna inteligencja wpłynie na pracę księgowych

W maju tego roku, podczas rozprawy rozwodowej w sądzie w Toronto, sędzia stwierdził, że dokumenty zawierają tzw. halucynacje sztucznej inteligencji, odnoszące się do fikcyjnych spraw, o czym donosił Toronto Sun.

CBC wspomniało, że francuski prawnik Damien Charlotin stworzył międzynarodową bazę danych spraw sądowych dotyczących halucynacji AI lub fikcyjnych przypadków i odniesień stworzonych przez AI. Ta kolekcja obejmuje 137 przypadków z różnych krajów.

Jednak pierwszą kanadyjską sprawą nie była sprawa rozwodowa z Toronto, ale sprawa z lutego ubiegłego roku, kiedy sędzia ukarał prawnika za podanie w złożonych dokumentach szczegółów dotyczących fikcyjnych spraw, powtarzając, że narzędzia AI nie mogą zastąpić profesjonalnej wiedzy specjalistycznej i kompetencji – cytuje CBC.

z Toronto Anna Lach (PAP)

lach/ zm/

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *