Umjetna inteligencija ulazi u Kazneni zakon: Tko će odgovarati za pogreške?
Odvjetnik Vlaho Hrdalo je u Novom danu s Tihomirom Ladišićem komentirao najavljene izmjene Kaznenog zakona.
Izmjene podrazumijevaju i uvođenje novog kaznenog djela – dovođenje u opasnost života i imovine sustavima umjetne inteligencije.
– To je početak razvoja jedne tehnologije i zakonodavstvo obično kaska za njom pa još uvijek ne postoji komparacija s drugim državama. Ne znam je li ta zakonska odredba potrebna, iskreno. Jer, ovdje imamo nešto za što se zakonodavac rijetko odlučuje – apstraktnu opasnost – kazao je Hrdalo pa detaljnije komentirao:
– Nije dobro ako bi to destimuliralo razvoj tehnologije, ali, s druge strane, ne može se dopuštati razvoj nečega što kao posljedicu može imati smrt ili štetu većih razmjera. No, imate slučaj autonomnih vozila. Ono izazove nesreću i tko je onda kriv?
Naglasio je da umjetna inteligencija nije opće opasna. Također, odbacuje kritike da se na ovaj način želi usporiti ili onemogućiti razvoj umjetne inteligencije.
– Ne prihvaćam da je intencija zakonodavca destimulirati razvoj jedne industrije. Za to ne postoje motivi ili potreba. Europska unija neosporno zaostaje u razvoju ove tehnologije i ne bi joj bilo u interesu dodatno je sputavati.
“Sumnjam da ćemo često trebati vještake”
A što ako, primjerice, u liječenju sustav umjetne inteligencije pogriješi i nanese štetu?
U tom bi se slučaju išlo na “nesavjesno liječenje”. Kum AI-ja Geoffrey Hinton je rekao da ga brine kombinacija umjetne inteligencije i biološkog oružja jer to može rezultirati pogrešnim korištenjem.
Tko bi vještačio u slučajevima koji se tiču AI-ja?
Ima sposobnih ljudi koji bi to bili u stanju raditi, a i sumnjam da će često biti potreba za njima. Vidjet ćemo hoće li biti koji slučaj uopće u idućih pet godina.
Akt o umjetnoj inteligenciji uveden je u Europskoj uniji prošle godine kako bi se regulirala sva sporna pitanja oko AI-ja.
– Ona prva želi stvoriti određena pravila igre, što je čest slučaj. No, regulative usporavaju razvoj. Iako, u slučaju AI Acta ne govori o kaznenim djelima. Zato se ne može reći da je naš zakon u njemu tražio kako se oblikovati.
“Porođajne muke”
Hrdalo smatra da je zbog kompleksnosti i brojnih nepoznanica po pitanju umjetne inteligencije potrebno i odrediti tko razvija i tko implementira tehnologiju.
– Imate ponovno primjer autonomnih vozila. Nije nužno da su oni koji su razvili automobil ujedno i operateri. Ali, ne može se isključiti odgovornost pravnih osoba, no sigurno bi bila odgovorna neka fizička osoba. Tu će biti kombinacija kaznenog i dijelom trgovačkog, odnosno građanskog zakonodavstva. To jesu porođajne muke i možda će za 20 do 30 godina to biti jasnije.
“Ako robotaksi nekoga pogazi, tko je kriv? Netko mora biti”
Kad se govori o potrebi regulacije, spominje se primjer robotaksija, na kojima se radi i u Hrvatskoj.
– Često imate doprinos s obje strane. Ako bi robotaksi nekoga pogazio, pitanje je je li kriv onaj koji je napravio vozilo, ali netko mora biti kriv. Nisu mi sporne odredbe da u slučaju smrti i teže štete mora biti odgovornosti. Malo je nespretna formulacija da se ide u kažnjavanje samog testiranja jer koja je granica? Kako ćemo definirati opasnost? Imamo firmu koja razvija dronove i ne možemo reći da oni nisu opasni.
Zastupnici će se morati malo educirati o temi
Kako će se o tome raspravljati u Saboru?
Bilo je jako puno komentara na ovaj zakon, više od 600. Čini mi se da bi mogla biti živa rasprava i mislim da će se naši zastupnici morati malo educirati o tim stvarima jer nije to budućnost, to je već među nama. Moramo naučiti razgovarati o tim temama, što nije loše jer dobro da se i na druge stvari malo koncentriraju – zaključio je Vlaho Hrdalo.


