18.10.2024.

Pravni okvir reguliranja umjetne inteligencije

Jedna je od važnih tema današnjice pravno reguliranje tzv. umjetne inteligencije, odnosno algoritama koji omogućavaju visokosofisticirane digitalne usluge. U tom kontekstu, autor uvodno pojašnjava kontekst europskih i poredbenih nastojanja reguliranja umjetne inteligencije. Razmatra osnovne pravne i tehnološke pojmove iz područja umjetne inteligencije i nudi uvodna razmatranja o problematici uređenja odgovornosti za štetu koja proizlazi iz korištenja sustava umjetne inteligencije. Konačno, autor i upozorava na problem zaštite autorskog prava u kontekstu razvoja visokojezičnih modela generativnih alata umjetne inteligencije.

 

1. UVODNO O TEMI UMJETNE INTELIGENCIJE
U posljednjih nekoliko godina svjedoci smo brojnih tekstova i bombastičnih naslova glede umjetne inteligencije. Iznose se brojne poluistine, poluinformacije i polushvaćanja tehnologije koja oblikuje našu digitalnu i ovozemaljsku stvarnost već dugo vremena. Svatko danas ima priliku osjetiti moć digitalnih asistenata i alata, kako u privatnim tako i u poslovnim sferama. Engleski i nizozemski suci počeli su otvoreno koristiti ChatGPT prilikom pisanja presuda, europske i američke odvjetničke komore i pravosudna tijela pišu prve etičke kodekse korištenja generativnih alata umjetne inteligencije, a pojedini američki odvjetnici već su dobili opomenu pred isključenje jer su u podnescima koristili navode ChatGPT-a o nepostojećoj sudskoj praksi (tvrde da toga nisu bili svjesni). Autor ovoga teksta na osobnom je računalu isprobao nekoliko tzv. velikih jezičnih modela (large language models) koje je „trenirao“ na odabranim podacima.

Pojednostavnjeno rečeno, riječ je o alatu koji ima odlike ChatGPT-a, no uči isključivo iz materijala koje korisnik samostalno dijeli s alatom. Autor je u tom kontekstu nekoliko takvih alata obučavao koristeći literaturu koju je preko pet godina iščitavao za potrebe izrade doktorskog rada. Rezultati su bili zapanjujuće precizni, a eksponencijalno ubrzavanje obrade materijala upravo zastrašujuće. Teško je buduće poslovne aktivnosti zamisliti bez korištenja takvih alata, a još je teže predviđati do kakvih će štetnih posljedica pretjerano oslanjanje na takve alate dovesti, poglavito kod budućih generacija.

Nesumnjivo je da će domaći javni i privatni sektor sve brže početi usvajati dobru poredbenu praksu korištenja alata odnosno sustava umjetne inteligencije u svakodnevnom poslovanju. Istovremeno, s obzirom na brojne negativne posljedice korištenja takvih sustava, koje bilježi poredbena praksa, osobito u javnom sektoru, nužno je da se svi dionici upoznaju s temeljnim obilježjima, kako same tehnologije, tako i pratećih pravnih instituta i mehanizama. Navedeno je osobito bitno zbog toga što Uredba o umjetnoj inteligenciji (često se spominje i naziv Akt o umjetnoj inteligenciji)1, čiji se kontekst predstavlja u nastavku teksta, zahtijeva čitav niz protokola, mjera i mehanizama koje je potrebno usvojiti u svakodnevnom poslovanju, osobito ako je riječ o tzv. visokorizičnim sustavima umjetne inteligencije. Ako ništa drugo, novčane kazne zbog neusklađenosti predviđene Uredbom potaknut će mnoge da obrate pozornost, ili barem uspostave kontakt s onima koji će im pomoći u procesu usklađivanja (koji je puno zahtjevniji od tzv. GDPR2 usklađenosti).

Cilj je ovoga i budućih tekstova na temu reguliranja umjetne inteligencije informirati zainteresirano čitateljstvo o nekoliko aspekata umjetne inteligencije. Ovaj članak nudi opći pregled i kontekst usvajanja europskog pravnog okvira, dok će budući tekstovi biti posvećeni pojedinačnim temama od interesa, unutar i izvan okvira europske prakse. Posebnu pažnju posvetit ćemo Uredbi o umjetnoj inteligenciji koju ćemo detaljno razrađivati kroz više tema, te pratećoj direktivi koja nastoji urediti problematiku izvanugovorne odgovornosti glede korištenja sustava umjetne inteligencije (o kojoj se još uvijek raspravlja). Također, razmotrit ćemo i bitne novitete koje donosi revidirana (ako ne u potpunosti nova) Direktiva o neispravnom proizvodu, na što se u Europi čeka preko 30 godina. Bit će također adresirane i posebne teme od interesa, poput korištenja automatiziranih sustava ispomoći u vožnji odnosno automatiziranih sustava vožnje, problematike korištenja sustava biometrijske identifikacije u stvarnom vremenu, američke sudske prakse glede autorskog prava i razvoja odnosno korištenja generativnih alata umjetne inteligencije, problematike korištenja sustava umjetne inteligencije u masovnom nadzoru i kontroli javnog narativa i sl.

Konačno, tijekom posljednjih godina autor ovoga teksta aktivno je sudjelovao na brojnim skupovima, radionicama i poslovnim suradnjama sa i u organizaciji poslovnog, ponajprije IT sektora. Najčešća općenita kritika koja se opetovano provlači kroz brojna slična događanja usmjerena je na nedostatnu sintezu pravnog (legal) i tehnološkog (tech) sektora, ono što kolege iz časopisa Mreža i Bug kao sintagmu LegalTech koriste za svoje godišnje okupljanje navedenih sektora. Nadamo se da će serija članaka na temu prava i umjetne inteligencije pomoći u probijanju barijera i boljem međusobnom razumijevanju pravnog i tehnološkog žargona, i svima zainteresiranima s obiju strana monitora omogućiti bolje razumijevanje druge strane medalje.

2. KONTEKST RASPRAVE O EUROPSKOM PRAVNOM OKVIRU UMJETNE INTELIGENCIJE
Sredinom tekuće godine, nakon dugogodišnjeg debatiranja, proklamiranja i preispitivanja, usvojen je i prihvaćen europski tzv. Akt o umjetnoj inteligenciji. Riječ je višegodišnjoj europskoj ambiciji odnosno naporu osmišljavanja pravnog okvira – gotovo bez presedana u svijetu – kojim se uređuju sustavi tzv. umjetne inteligencije. Jedina nacija koja je preduhitrila europske regulatorne napore jest Kina, koja još 2017. uspješno počinje hvatati korak s europskim zakonodavstvom u području pravne i kibernetičke zaštite osobnih podataka. Ne tako davne 2018. Europska unija (u nastavku teksta: EU) uistinu je postala globalni svjetionik-model postavljanjem modernog standarda za zaštitu osobnih podataka. Europsku Opću uredbu o zaštiti osobnih podataka (u nastavku teksta: GDPR) redovito konzultiraju treće zemlje prilikom raspisivanja relevantnog domaćeg zakonodavstva, a utjecaj europskog tržišta dovodi do efekta prelijevanja (spill-over effect) europskog zakonodavstva i prakse u ostale jurisdikcije. Unija u međuvremenu ostvaruje daljnje korake u digitalnoj sferi pa smo u posljednje dvije godine svjedoci donošenja brojnih uredbi i direktiva iz područja digitalnog tržišta, kibernetičke sigurnosti i sl. Za razliku od Sjedinjenih Američkih Država (u nastavku teksta: SAD), koje i dalje pasivno promatraju razvoj pravnog okvira u drugim zemljama, Kina od 2021. s preko 30-ak zakonodavnih akata u području digitalne sfere i kibernetičke sigurnosti postaje globalni prvijenac u reguliranju umjetne inteligencije. Propulzivnost kineskih vlasti pretjerano ne iznenađuje činjenicom kako od te iste 2021. u zemlji u punom opsegu stupa na snagu sustav društvenog kreditiranja. Riječ je o digitalnoj platformi koja prati i ocjenjuje ponašanje svih građana Kine, sukladno propisima i socijalističkim vrijednostima, te se svakodnevno obrađuju stotine tisuća podataka o pojedincima koji žive ili posjećuju Kinu. Sustavi umjetne inteligencije kroz automatiziranu obradu podataka donose i automatizirane odluke kojima se izravno utječe na dobrobit građana. Primjera radi, dostatno je određeni broj puta prijeći crveno svjetlo na prometnici da bi se građanin našao u vrlo neugodnoj situaciji nemogućnosti korištenja usluge javnog prijevoza – odluka o skidanju bodova odnosno kredita s profila građanina odvija se automatizirano, posredstvom algoritma. Nastavite se ponašati mimo (društvenih) pravila ponašanja i uskoro vam se otvara (neodgodiva) mogućnost posjeta instituciji za korekciju društvenog ponašanja.

Dok je motivacija kineskih vlasti glede reguliranja umjetne inteligencije izvirala iz potrebe da država u određenoj mjeri zagospodari digitalnim prostranstvima, motivacija europskog ideološkog okvira proklamirano počiva na zaštiti temeljnih vrijednosti Europske unije. Neovisno o vrijednosnim razlikama, u praksi se ista tehnologija na iste ili slične načine koristi po cijelom svijetu, uključujući SAD i EU. To je postalo i više nego jasno kroz rasprave koje su se u Europskom parlamentu vodile glede pokušaja zabrane biometrijske identifikacije u stvarnom vremenu. Strah od političkog progona i zloupotrebe tehnologije od vlasti s jedne je strane postavio gotovo aktivistički tvrdokorna stajališta velikog broja europskih parlamentaraca (barem nominalno), dok je industrijski i inženjerski diskurs usvojio vrlo negativna stajališta glede općenite potrebe i načina reguliranja umjetne inteligencije u Europi. Gorak okus u ustima osobito ostavljaju i nedavni istupi osoba koje su sudjelovale u pisanju nacrta Uredbe o umjetnoj inteligenciji, koje u svojim izjavama izražavaju sumnju u smislenost, svrhovitost i provedivost zahtjeva sadržanih u Uredbi. U tom smislu ponovno do izražaja dolazi argumentacija sveprisutna posljednjih šest godina glede opravdanosti donošenja bilo kakvog akta kojim se reguliraju sustavi umjetne inteligencije.

U trenutku objave prvog nacrta teksta Uredbe o umjetnoj inteligenciji 2018. godine slobodno se može reći da je tema bila poznata samo rijetkim pravnicima i društvenjacima općenito, i to u pravilu onima koji su se kroz svoj rad bavili zaštitom osobnih podataka. Baš kao i pravni okvir zaštite osobnih podataka, i pravni okvir sustava umjetne inteligencije počiva na procjeni rizika (risk-based approach) po određene vrijednosti. Što je ozbiljniji rizik od nastupa neželjenih posljedica, to se više pozornosti očekuje od osoba koje u kontekstu obrade podataka vode ili izvršavaju obradu, odnosno koje u kontekstu sustava umjetne inteligencije razvijaju (razvojni programeri, distributeri) ili koriste (korisnici) takve sustave. Primjerice, pod visokorizičnim sustavima umjetne inteligencije podrazumijevaju se oni sustavi koji mogu u ozbiljnoj mjeri ugroziti temeljne vrijednosti i temeljna prava Unije. Iako ne postoji konačan i zatvoren popis takvih sustava, unaprijed je poznato kako će se pod visokorizične sustave svakako svrstati sustave umjetne inteligencije koji se koriste u pravosuđu, zdravstvu, energetici, financijama (uključujući i sektor osiguranja), obrazovanju, tijelima za provođenje zakona (u mjeri u kojoj ta tijela nisu izuzeta iz primjene Uredbe) i sl. Riječ je u pravilu o sustavima umjetne inteligencije koji koriste velike količine osobnih podataka građana, i koji na temelju njihove analize donose preporuke i/ili odluke kojima se u bitnome utječe na dobrobit građana. Brojni negativni primjeri iz poredbene prakse ukazuju na pogreške u sustavima umjetne inteligencije koji su dovodili do krivih nalaza i terapija, pogrešnih isplata socijalnih i mirovinskih davanja, netočnih procjena kreditne sposobnosti, netočnih prediktivnih i identifikacijskih izlaznih rezultata sustava masovnog nadzora i sl. Procjena kategorije sustava umjetne inteligencije provodi se individualno, uz napomenu da se za neke kategorije rizika predviđa samoprocjena, dok se za druge određuje revizija trećeg neovisnog tijela (više o temi usklađivanja u jednom od budućih članaka).

Pažljivi čitatelj zapazio je da se u prethodnom odlomku koristi pojam dužne pažnje, što upućuje na subjektivnu odgovornost glede procjene odgovornosti za štetu koja proizlazi iz korištenja sustava umjetne inteligencije. No, pitanje procjene odgovornosti razvojnih programera, distributera i korisnika sustava umjetne inteligencije odnosno generativnih alata umjetne inteligencije i dalje je otvoreno. Direktiva o neispravnom proizvodu, i u svojoj novoj iteraciji (u postupku donošenja), počiva na principu objektivne odgovornosti proizvođača za neispravan proizvod. Za razliku od toga, Direktiva o izvanugovornoj odgovornosti za sustave umjetne inteligencije (u raspravi), po uzoru na temeljne postavke prava na popravak (geneza iz američke poredbene prakse), počiva na kombinaciji dokazane i presumirane krivnje (subjektivna odgovornost). Određeni sektori, pak, nastoje samostalno urediti tu problematiku. Dobar primjer je prometni sektor, koji sve više naginje objektivnoj odgovornosti u kombinaciji s jakim paketom osiguranja. Primarno pitanje koje se nameće jest pomirenje zahtjeva zaštite potrošača s jedne strane, i zaštite intelektualnog vlasništva s druge strane. Više o ovoj bitnoj temi u nastavku teksta.

Dio stručnjaka još je 2015. i 2016. godine upozoravao na problem automatizirane obrade podataka, dok je dio stručnjaka posljednjih godina propitivao dihotomiju propisa glede zaštite osobnih podataka kroz GDPR i Akt o umjetnoj inteligenciji. No, velika većina te velike manjine stručnjaka sasvim sigurno 2018. nije pretpostavljala neočekivano stupanje na scenu tzv. generativnih alata umjetne inteligencije. Streaming usluzi Netflix 1999. godine trebalo je 3,5 godina da dostigne milijun korisnika. Gotovo deset godina kasnije, Airbnb platforma za najam tek je nakon 2,5 godine dostigla milijun korisnika. Čak se i globalna društvena mreža Facebook mučila skoro godinu dana (10 mjeseci) da dostigne tu brojku u 2004. godini. Za razliku od navedenih primjera, digitalnom botu ChatGPT trebalo je pet dana da dostigne milijun korisnika, odnosno mjesec dana postojanja da dostigne 100 milijuna dnevnih korisnika – i to za alat koji je u tom trenutku u velikoj mjeri neprovjeren i nepouzdan. Shvativši silinu penetracije različitih digitalnih generativnih alata umjetne inteligencije (za sliku, video, tekst, zvuk, digitalne avatare i sl.) u svakodnevni život stotina milijuna osoba diljem svijeta, čak su i okorjeli protivnici reguliranja digitalnog okvira pružanja usluga korištenjem sustava umjetne inteligencije reterirali te zatražili reviziju (ne)postojećih pravila glede takvih alata. I sama Uredba o umjetnoj inteligenciji doživjela je bitne izmjene i dopune upravo radi potrebe da se adresiraju izazovi nastali pojavom takvih alata. Jedan od noviteta je i izravno pozivanje na potrebu poštovanja zaštite prava autorskog vlasništva s obzirom na poplavu sudskih predmeta u SAD-u i Ujedinjenoj Kraljevini (u nastavku teksta: UK) u kojoj brojni razvojni programeri, dizajneri, slikari, glazbenici, pisci, novinari, glumci i drugi umjetnici općenito glasno prozivaju nekoliko Big Tech kompanija (kako po brandu, tako i po akumulaciji investicija u proteklih nekoliko godina) za krađu autorskog vlasništva (copyright claim). Dok englesko i velško pravo ne nudi nikakve pravne presedane u digitalnom kontekstu (važeći zakon je iz 1986.), američki Vrhovni sud relativno je nedavno započeo razmatrati ovu tematiku (predmet Andy Warhol), dok se na nižim sudovima žudno iščekuju ishodi velikog broja započetih postupaka.

3. PROBLEMATIKA SHVAĆANJA POJMA UMJETNA INTELIGENCIJA
Kad je riječ o stvarnoj naravi trenutačnih naprednih algoritama temeljenih na strojnom učenju (machine learning) i dubokom učenju (deep learning), bitno je podsjetiti kako je pojam „umjetna inteligencija“ tek uvriježeni, kolokvijalni pojam koji ne odražava stvarne, u bitnome ograničene kapacitete naprednih računalnih programa (algoritama) o kojima je riječ. Različiti sustavi umjetne inteligencije posjeduju zavidne kapacitete analize i obrade podataka. Koriste se za generaciju izlaznog sadržaja u obliku predviđanja, preporuka i odluka koje utječu na okruženje s kojim su u interakciji. No, koliko god izlazni sadržaj djelovao (poglavito na prvu) napredan i izvoran, sustavi umjetne inteligencije ne posjeduju kognitivne značajke, već je ponajprije riječ o alatima za efikasniju produktivnost (uz zadršku točnosti izlaznih rezultata).

Primjera radi, 2019. skupina znanstvenika provodila je laboratorijsko ispitivanje kognitivnih sposobnosti laboratorijski uzgojenih miševa s ciljem da ih se nauči – voziti. Istraživači su konstruirali jednostavno vozilo s tri poluge (pogon u lijevo, desno i naprijed), te izgradili prozirni cestovni labirint s početnom pozicijom na jednoj strani prostorije i tanjurom hrane na drugoj. Nakon 24 petominutne vježbe laboratorijski miševi naučili su upravljati vozilom te uspješno odvozili kroz cestovni labirint do hrane. Prema navodu znanstvenika, 24 pokusne vožnje bile su dostatne da laboratorijski miševi dokažu sposobnost svladavanja vještine nepoznate u povijesnoj genezi cijele vrste, a što neki stručnjaci shvaćaju kao definiciju inteligencije (sposobnost učenja novih vještina). Za razliku od živih organizama, Googleov AlphaZero računalni program za igranje šaha trebao je odigrati 44 milijuna šahovskih partija prije nego što uspije savladati i najbolje ljudske šahiste. Sustav umjetne inteligencije AlphaZero dokazao je vrhunske performanse u igranju šaha, no niti u jednom trenutku nije pokazao sposobnost primjene stečene vještine u neke druge svrhe. Nedavno je samovozeći robotaxi kompanije Cruise pregazio osobu, i dok se ona još nalazila pod vozilom, nastavio voziti, prvo unaprijed, pa bočno unazad, a sve zbog toga što niti jedan senzor nije upozoravao na prisutnost osobe (jer nema relevantnih senzora ispod automobila koji bi upozorili na anomaliju). Kako su brojni stručnjaci komentirali, čak bi i osoba koja pohađa autoškolu instinktivno osjećala da se mora prestati kretati jer barem postoji mogućnost da se osoba još uvijek nalazi ispod automobila. Navedena razmatranja bitna su za poimanje odgovornosti koja proizlazi iz korištenja sustava umjetne inteligencije, o čemu će biti riječi u jednom od sljedećih tekstova.

Slučaj virtualnog asistenta (chatbota) Montrealskog zračnog prijevoznika također upozorava na problematiku odgovornosti koja može proizaći iz netočnih podataka koje generiraju sustavi umjetne inteligencije. Kanadski zračni prijevoznik na svojim je mrežnim stranicama implementirao sustav virtualnog asistenta koji razvija i održava treća kompanija, i kojim se putnici mogu služiti prilikom kupovine karata izravno od zračnog prijevoznika. Prilikom korištenja virtualnog asistenta za kupovinu karata putnik je planirao kupiti dvije odvojene karte u povratnom smjeru (jer u trenutku kupnje nije znao točan datum povratnog leta). Virtualni asistent obavijestio je putnika kako kartu za prvi let može kupiti odmah, dok povratnu kartu može kupiti naknadno uz određeni popust. Putnik je prihvatio sugestiju sustava umjetne inteligencije te kupio kartu za prvi let. Nakon nekoliko dana doznao je datum povratka, ponovno se prijavio u sustav prodaje karata i unio kôd za popust koji je dobio od virtualnog asistenta. Sustav je prijavio pogrešku da je kod nepostojeći, te je putnik naknadnom komunikacijom s djelatnicima zračnog prijevoznika saznao da se takva vrsta popusta uopće ne nudi. Drugim riječima, virtualni asistent „halucinirao“ je sadržaj (pojam koji se često susreće u pravnim osvrtima na sustave umjetne inteligencije te sve češće i u sudskim postupcima o kojima će biti posebno riječi u jednom od budućih tekstova). Putnik se požalio da je doveden u zabludu, no zračni prijevoznik odgovorio je da to nije njihova pogreška, već pogreška treće kompanije koja razvija i održava sustav virtualnog asistenta (problematika nezavisnih ugovaratelja). Prvo Montrealsko mrežno sudište nije se složilo s takvim stavom te je zaključilo da je zračni prijevoznik odgovoran jer je korisnik sustava umjetne inteligencije putem kojeg pruža određene usluge (podrška putnicima, kupovina karata i sl.), konkretno, prodaju karata putnicima. Taj predmet je znakovit jer daje naslutiti u kojem smjeru možemo očekivati distribuciju pravde u poredbenoj sudskoj praksi. U kontekstu sektora kao što je promet, svakako je uputno unaprijed voditi računa o potrebi harmonizacije pravnih normi s obzirom na globalni doseg i značaj prometnih usluga.

Sama Uredba o umjetnoj inteligenciji sustav umjetne inteligencije načelno definira kao računalni program (softver) koji ima generativne sposobnosti, odnosno mogućnost generiranja izlaznih rezultata kojima utječe na okolinu. Takva, znatno ograničena definicija umjetne inteligencije, plod je višegodišnjeg prepiranja oko toga koliko je opravdano prepustiti određeni segment odlučivanja računalnom sustavu bez prethodne provjere odnosno nadzora ljudi. Kada se, primjerice, pažljivo iščitava pristup definiranju pojma umjetne inteligencije u policy briefu (osnovna kontura javne politike) američke Vlade, vidljivo je da američki pristup načelno dopušta generaciju izlaznog sadržaja koju je prethodno osmislio odnosno zadao sam sustav umjetne inteligencije. Američki pristup, naime, puno šire shvaća i tumači doseg deep learning sustava umjetne inteligencije. Riječ je o sustavima umjetne inteligencije koji su sposobni samostalno usvajati nove spoznaje.

Klasičan sustav umjetne inteligencije treniran metodologijom strojnog učenja omogućava algoritmu da raspoznaje određene zadane objekte. Tako će, primjerice, sustav za detekciju oružja manje ili više uspješno detektirati hladno oružje na snimci sigurnosne kamere. Lažni alarmi (false positive) i propušteno alarmiranje (false negative) upozorava na potrebu dodatnog strojnog učenja tako da se u bazu podataka za treniranje (učenje) algoritma (data training/learning set) dodaju dodatni slikovni prikazi oružja (primjerice, određeni modeli noževa ili pištolja) odnosno objekata koje sustav pogrešno tumači kao hladno oružje (primjerice, određeni modeli mobitela). Strojno učenje provodi se pod nadzorom inženjera koji testiraju rezultate prije i nakon provedenog dodatnog treniranja modela, a potencijalno bolji rezultati plod su ulaznog sadržaja koji određuju ljudski operateri (human-based input).

Duboko učenje predstavlja metodologiju učenja koja predviđa mogućnost sustava umjetne inteligencije da samostalno uči prepoznavati objekte, samostalno predviđa radnje i zbivanja, i samostalno osmišljava narativ. Dobar su primjer toga eksperimenti provođeni u virtualnim svjetovima gdje sve izmišljene likove u virtualnom svijetu predstavljaju tzv. NPC modeli (non-player character, računalno vođeni igrač). Sustav umjetne inteligencije koji pokreće takav model (konkretno game engine) samostalno tvori umjetni svijet, likove koji žive u tom svijetu, njihovu pozadinu, međuodnose i sl. Svijet živi svojim ritmom, likovi se druže, svađaju, ignoriraju jedni druge, ne pozivaju se na kućne zabave i sl. Ništa od toga nije uvjetovano računalnim kodom koji su inicijalno pripremili razvojni programeri, već je sustav samostalno razvio sposobnost kreacije novog sadržaja.

Ograničena definicija prisutna u europskom pravnom okviru, a koja je manje-više preuzeta iz OECD modela, prema tumačenju više stručnjaka, ne obuhvaća sustave umjetne inteligencije koji samostalno određuju izlazni sadržaj, a što predstavlja ozbiljan problem u kontekstu sveobuhvatnog reguliranja umjetne inteligencije, poglavito glede tzv. deep learning algoritama. Vrijeme će pokazati je li riječ o ozbiljnom propustu ili ne.

Sljedeći članak posvetit ćemo problematici odgovornosti za štetu u kontekstu Direktive o izvanugovornoj odgovornosti za sustave umjetne inteligencije i Direktive o neispravnom proizvodu.

* Pravni fakultet Sveučilišta u Zagrebu.
1 Uredba (EU) 2024/1689 Europskog parlamenta i Vijeća od 13. lipnja 2024. o utvrđivanju usklađenih pravila o umjetnoj inteligenciji i o izmjeni uredaba (EZ) br. 300/2008, (EU) br. 167/2013, (EU) br. 168/2013, (EU) 2018/858, (EU) 2018/1139 i (EU) 2019/2144 te direktiva 2014/90/EU, (EU) 2016/797 i (EU) 2020/1828 (Akt o umjetnoj inteligenciji).
2 Uredba (EU) 2016/679 Europskog parlamenta i Vijeća od 27. travnja 2016. o zaštiti pojedinaca u vezi s obradom osobnih podataka i o slobodnom kretanju takvih podataka te o stavljanju izvan snage Direktive 95/46/EZ (Opća uredba o zaštiti podataka) (Tekst značajan za EGP).