danas je 21.11.2024

Input:

2024.04.1.7 Kada umjetna inteligencija pogriješi

16.10.2024, , Izvor: Verlag Dashöfer

2024.04.1.7 Kada umjetna inteligencija pogriješi

Filip Galić, odvjetnik

Stara narodna poslovica kaže da onaj tko radi, taj i griješi. Nigdje to nije jasnije nego u strukama gdje je intelektualna komponenta snažno izražena – poput, primjerice, odvjetničke struke u kojoj su, zbog složenosti posla, što zbog složenosti svakog pojedinog predmeta, što zbog drugih razloga, moguće brojne, veće ili manje greške.

Međutim, ono što se dogodilo u predmetu Mata vs Avianca, inc, spada u priču-upozorenje pravnicima, odvjetnicima, ali i drugim strukama, što se može dogoditi ukoliko se (još uvijek) nekritično vjeruje generativnim modelima umjetne inteligencije.

ChatGPT je, općepoznato je, od studenog 2022. pokorio svijet i mnoge struke su mu se okrenule kao odličnom sredstvu u svojem radu, a pravnička struka, jasno, nije bila iznimka. Već smo pisali o tome kako su modeli umjetne inteligencije uspješno položili američke pravosudne ispite, kako odvjetnici koriste ChatGPT i druge modele za pisanje jednostavnih, šablonskih dopisa i druge načine na koji se pravna struka oslanja na generativnu umjetnu inteligenciju.

Predmet Mata vs Avianca, inc., nije trebao biti nikakav presedanski predmet. Gospodin Mata je, naime, tužio avio-prijevoznika Aviancu, jer mu je uslijed nestručnog postupanja njihovog zaposlenika, ozlijeđeno koljeno. Gospodina Matu su zastupali odvjetnici Peter LoDuca i Steven A. Scwartz, iz društva Levidow, Levidow & Oberman. Iako su odvjetnici koji su zastupali Aviancu isticali prigovor zastare, odvjetnici tužitelja su na taj