Članek je bil objavljen v reviji Odvetnik, številka 88/2018
Vsaka uporaba računalniških algoritmov še ne pomeni uporabe umetne inteligence. Za uporabo metod umetne inteligence ne bo šlo v primeru, ko bo računalniški algoritem na vhodnih podatkih opravil vnaprej sprogramirane operacije, ki so potrebne za obdelavo podatkov. V takem primeru bo šlo za avtomatizacijo. O umetni inteligenci lahko govorimo takrat, ko računalniški algoritem premosti potrebo po človeški interakciji z napravami in algoritmi za avtomatizacijo. Umetna inteligenca v sodni dvorani bi na primer nadomeščala sodnikovo ločevanje med odločilnim in neodločilnim dejanskim stanjem, vsebinska spoznanja o odločilnem dejanskem stanju, subsumpcijo ugotovljenega odločilnega dejanskega stanja pod pravno normo, pa tudi izbiro in odmero kazenske sankcije ali odmero odškodnine za nepremoženjsko škodo.
Glede na stanje tehnike si še dolgo ne bo mogoče zamisliti, da bi (prava oziroma krepka - angl. strong) umetna inteligenca zamenjala človeka v sodnih dvoranah, pa vendarle že obstajajo primeri uporabe umetne inteligence v praksi.
Umetna inteligenca se je kot raziskovalno področje oblikovala po drugi svetovni vojni.1 Je znanost, ki se ukvarja z vprašanjem, kako izdelati inteligentne naprave, zlasti računalniške programe, ki posnemajo človeško inteligenco, pri tem pa se ne omejuje na biološko zaznavne metode.2 Gre za znanost, ki skuša računalnike usposobiti, da bi pri odločanju uporabili inteligenco s spoznavno močjo, podobno človeški.3
Alan Turing je leta 1950 razvil t. i. Turingov test. Gre za kriterije, ki naj bi omogočali spoznanje, ali naprava vsebuje (umetno) inteligenco.4 Umetno inteligenco po Turingu vsebuje le takšna naprava, katere odgovorov človek ne zna prepoznati kot odgovorov naprave.5 Test se izvaja tako, da ocenjevalec napravi in človeku, ki ju ne vidi, v obliki spletnega klepeta zastavlja ista vprašanja, sogovornika pa odgovarjata. Na koncu se ocenjevalec odloči, kateri izmed sogovornikov je človek. Test išče v ravnanju naprave človeku podobno razmišljanje. Ne gre za to, da bi morala umetna inteligenca vselej ravnati pametno, pač pa da ravna enako kot človek, ki glede na okoliščine ravna pametno ali nespametno, lahko pa gre za primer pametnih ravnanj, ki jih človek ne bi sprejemal (npr. tehnično je mogoče, da se samovozeče vozilo odloči, da bo v situaciji, ko prometne nesreče s smrtnim izidom ne more preprečiti, raje povzročilo smrt starejšega potnika vozila kot pa skupine prvošolcev).
Turingovega testa doslej ni prestala še nobena naprava in verjetno prav zato tečejo polemike, ali je res najprimernejši, čeprav je še vedno najbolj priljubljen.6
Prava oziroma krepka umetna inteligenca (angl. strong AI), o kateri je zgoraj govor, pa ni edina pojavna oblika umetne inteligence, pač pa se danes že uporabljajo metode strojnega učenja (angl. machine learning)7 oziroma t. i. uporabna umetna inteligenca (angl. applied AI), ki obsegajo napredne metode obdelovanja in uporabe podatkov.
Algoritmi strojnega učenja imajo sposobnost, da upoštevajo uporabnikov odziv na rezultate in na tej podlagi svojo natančnost stalno izboljšujejo8 ter se dodatno učijo brez človeške interakcije.9 Že leta 1960 sta bila razvita prvi algoritem za strojno učenje in nevronska mreža, ki se je zgledovala po strukturi človeških možganov.10
Uporaba algoritmov za strojno učenje se je v zadnjih letih okrepila zaradi tehnološkega napredka,11 zlasti zaradi razmaha računalništva v oblaku (angl. cloud computing), ki omogoča hitrejše, cenejše in prilagodljivo obdelovanje velikega obsega podatkov, kar je vse potrebno za implementacijo strojnega učenja. Strojno učenje zahteva veliko pomnilniško kapaciteto in procesorsko moč, ne glede na to, kolikšna je količina vhodnih podatkov, zato ponudniki tovrstnih storitev strojno učenje najpogosteje ponujajo kot storitev v oblaku, kar od odvetnika zahteva, da poskrbi za ustrezno zavarovanje podatkov strank. Strojno učenje postane uporabno, ko je vzorec primerljivih podatkov za sklepanje umetne inteligence zadosten, zato se strojno učenje pogosto omenja skupaj z masovnimi podatki (angl. big data).
Raziskovalci na področju umetne inteligence zagovarjajo stališče, da so odločitve, ki jih sprejmejo ljudje (zavedno ali nezavedno), pogosto sprejete pod vplivom stereotipov in predsodkov ter celo metabolizma.12 Odločitve algoritmov naj bi bile manj pristranske.
V ZDA umetno inteligenco danes že uporabljajo v kazenskem pravosodju za odločanje o pogojnem odpustu, določanje varščine, določanje kazenskih sankcij, pa tudi kot pomoč pri odločanju o krivdi.13 Znan je primer Wisconsin proti Loomis,14 ko je bil moški obsojen na šestletno zaporno kazen, potem ko se je sodišče deloma oprlo na rezultate algoritma, katerega imetnik je zasebno podjetje, obtoženi pa ni imel pravice pregledati njegovega delovanja. Omenjeni algoritem je obtoženega ocenil za potencialnega povratnika, sodnik pa je to upošteval pri izbiranju kazenske sankcije. Loomisu bi bila po presoji sodišč izrečena enaka sankcija tudi na podlagi drugih obstoječih okoliščin, zato so bila njegova pravna sredstva zavrnjena. Poročilo raziskovalnih novinarjev je nato pokazalo, da isti algoritem tveganje za povratništvo v večji meri pripisuje obtožencem s temnejšo barvo kože,15 saj so tisti s svetlejšo kožo kljub predkaznovanosti predstavljali manjše tveganje kot manj predkaznovani ali nekaznovani temnopolti storilci. Stroka tovrstno nepristranskost imenuje strukturna nepristranskost, ki lahko izhaja iz vzorčnih podatkov, uporabljenih za treniranje umetne inteligence, ali pa iz samega algoritma. Ponudnik algoritma je opravil tehnično analizo in pristranskost zanikal.16
Tudi civilne zadeve niso izjema. Algoritem CaseCruncher Alpha se je pred letom dni pomeril v tekmovanju s sto pravniki najbolj slovečih londonskih odvetniških pisarn.17 Algoritem in pravniki so imeli na voljo osnovne podatke o več sto zahtevkih v zvezi z zavajanjem pri prodaji zavarovanja plačil v primeru kreditojemalčeve brezposelnosti, o katerih so pristojni že odločili, kar pa udeležencem ni bilo znano. Udeleženi pravniki so morali opraviti oceno verjetnosti uspeha (da/ne), pri tem pa so bile njihove ocene za več kot četrtino manj natančne (62,30 odstotka) kot ocene algoritma (86,60 odstotka).
Umetna inteligenca še dolgo ne bo mogla nadomestiti sodnika, ampak bo lahko samo orodje, ki je v pomoč pri odločanju. Stanje tehnike ne omogoča, da bi ena naprava osvojila nabor znanj in izkušenj, ki krasijo sodnika. Sodnik mora obvladati socialne veščine, psihologijo, raziskovanje, jezik, logiko, s pomočjo izvedenca mora razumeti stroko, kot tudi znati znotraj pravnega sistema kreativno reševati probleme, medtem ko lahko umetna inteligenca danes ponudi asistenco le v zvezi s posamezno od navedenih veščin.
Buocz meni, da lahko umetna inteligenca v pravosodnem sistemu opravlja več nalog.18 Deluje lahko kot knjižničar, ki posreduje zahtevane vire, pri tem pa pravno raziskavo vidi kot naslednjo stopnjo umetne inteligence, ki že vsebuje elemente odločanja. Po njegovem mnenju lahko človeka nadomesti na položajih, kot je generalni pravobranilec pred Sodiščem EU, tj. ko ne gre za odločanje, ampak le za pripravo poročil in predlogov za pomoč sodišču, da sprejme odločitev (npr. pri nas v praksi v določenem obsegu pravosodni svetovalec in sodniški pomočnik). Navaja, da je uporaba umetne inteligence pri odločanju predstavljiva, če je pristojnost umetne inteligence omejena. Omejitev vidi v institucionalni ločitvi med odločanjem umetne inteligence in odločanjem sodnika – po mnenju avtorja tega prispevka bi zavezujoča odločitev umetne inteligence lahko temeljila le na privolitvi posameznika – ali pa v dvofaznem sistemu odločanja, v katerem bi na zahtevo posameznika odločitev umetne inteligence preveril sodnik. Dodati je mogoče, da bi umetna inteligenca, ki omogoča prepoznavo govora, ob ustrezni podprtosti slovenskega jezika lahko nadomestila podporna opravila za delo sodišč, kot sta na primer pisanje zapisnikov in izdelava zapisov zvočnih posnetkov.
Strojno učenje se pojavlja tudi pri odvetniških opravilih, ki niso povezana s sojenjem. Na trgu je več ponudnikov algoritmov, ki so namenjeni pregledovanju obsežne listinske dokumentacije v okviru standardiziranih in monotonih storitev. Isti ali drugi ponudniki s svojimi algoritmi omogočajo, da uporabna umetna inteligenca izdeluje osnutke pogodb ali dokumentacije, ki jih je treba izdelati zaradi skladnosti gospodarskih ali drugih subjektov s predpisi, pa tudi uporabo tovrstne umetne inteligence za e-odkrivanje (angl. e-discovery) odločilnih dejstev v večji količini podatkov (npr. v elektronski korespondenci).
Vsi algoritmi, ki so na voljo, imajo dve ključni hibi: nepodprtost ali slaba podprtost slovenskega jezika in premajhen ali slab vzorec primerljivih podatkov.19
Praktični primeri so opozorili,20 da je pri snovanju algoritmov umetne inteligence treba dosledno upoštevati temeljna civilizacijska načela, kot jih vsebujejo najvišji pravni akti in razlagajo najvišja sodišča. Umetno inteligenco, ki je nepristranska, izpolnjuje visoke etične standarde in stremi k vsesplošni koristnosti, stroka imenuje odgovorna umetna inteligenca.
Računalništvo v oblaku in obdelovanje masovnih podatkov, ki praviloma vključujejo osebne podatke, odpirata dileme s področja pravne ureditve obdelovanja osebnih podatkov in kibernetske varnosti. Zlasti pri ponudnikih iz tretjih držav bo v posameznih primerih verjetno treba proučiti tudi nevarnosti industrijske špijonaže. Pred uporabo umetne inteligence kot storitve v oblaku je zato potrebna analiza tveganj za informacijsko varnost in skladno poslovanje.
Pravna razmerja med ponudnikom algoritma in uporabnikom se uredijo s pogodbo. Največji izziv pri sklepanju take pogodbe bo dejanske narave – nepoznavanje ponudnikovega sistema in algoritma, ki teče na ponudnikovem sistemu. Od istih dejanskih neznank bo odvisna tudi obravnava zahtevkov za pogodbeno odškodninsko odgovornost ponudnikov algoritmov. Praviloma ponudnik zaradi varovanja svojih poslovnih skrivnosti, avtorskih pravic na algoritmu in znanj ter izkušenj ne bo pripravljen razkriti podrobnosti o svojem sistemu in algoritmu, zato bodo prišla v poštev potrdila pooblaščenih certifikacijskih organov ali pa sklicevanje na uveljavljene mednarodne ali druge podobne standarde. Vse to od odvetnika, ki stranki svetuje ali jo zastopa v postopkih, v katerih se uporabljajo algoritmi umetne inteligence, zahteva specifično znanje.
Kot je že navedeno, lahko umetna inteligenca (vsaj pri posameznih vprašanjih) pri sojenju nadomesti človeško odločanje. Skladno s členom 22 Uredbe (EU) 2016/679 ima posameznik, na katerega se odločanje nanaša, že danes pravico nasprotovati odločitvi, ki temelji zgolj na avtomatizirani obdelavi podatkov. Zavzemam se za to, da bi posameznik imel to pravico v vseh primerih, ko gre za avtomatsko obdelavo podatkov, ki so za odločitev bistvenega pomena.
Umetno inteligenco obkrožajo predsodki in strah, da bo nadomestila zaposlene. Čeprav bo nekoč neizogibno spremenila potrebe delodajalcev in s tem dela ter naloge zaposlenih, pa si glede na stanje tehnike in hitrost napredka ni mogoče zamisliti, da bi v bližnji prihodnosti povsem nadomestila sodnike. Sodniki za svoje delo potrebujejo širok nabor različnih znanj in izkušenj, ki jih umetna inteligenca, kot jo poznamo, ne more osvojiti. Bolj verjetno se zato zdi, da bo umetna inteligenca obstajala vzporedno s sodniki in jim bo v pomoč pri odločanju. Še najverjetneje bi lahko nadomestila opravila, povezana z jezikom, kot so na primer iskanje virov, pisanje zapisnikov in izdelava zapisov zvočnih posnetkov ter pisnih izdelkov po nareku. Sploh slednje je ob ustrezni investiciji (najbrž garažnih zanesenjakov ali pa države, saj veliki zasebni subjekti za slovensko okolje ne kažejo zanimanja) v prepoznavanje slovenskega jezika najbolj predstavljivo.
Uporaba umetne inteligence pri sojenju pa je v vsakem primeru izredno občutljivo področje, ki zahteva previdnost in potrpežljivost pred prehitro implementacijo ter še bolj transparentnost algoritmov, ki so v pomoč pri sojenju.
Avtor: mag. Mitja Podpečan, odvetnik – specialist na področju gospodarskega in civilnega prava, član ekipe Nove tehnologije v Odvetniški pisarni Jadek & Pensa
Članek je bil objavljen v reviji Odvetnik, številka 88/2018
1 McCarthy, J.: What is Artificial Intelligence, Standford University, 12. november 2007, .
2 McCarthy, J., naved. delo.
3 Copeland, J.: What is Artificial Intelligence, www.alanturing.net/turing_archive/pages/Reference%20Articles/What%20is%20AI.html.
4 Turing Test, članek na Wikipediji, https://en.wikipedia.org/wiki/Turing_test.
5 Turing, A.: Computing Machinery and Intelligence, Mind, 1950, str. 433-460.
6 Glej www.imdb.com/title/tt0470752/.
7 Strojno učenje je znanost o algoritmih, ki zaznavajo vzorce v podatkih, da bi izdelali natančne napovedi prihodnjih podatkov. Več: http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2716966.
8 Mitchell, T. M.: Machine Learning, MacGraw-Hill Science/Engineering/Math, 1997.
9 Munoz, A.: Machine Learning and Optimization, .
10 Marr, B.: A Short History of Machine Learning - Every Manager Should Read, Forbes, 19. februar 2016.
11 Zmaga superračunalnika IBM Watson nad človeškim nasprotnikom v kvizu Joepardy in zmaga Googlovega AlphaGO nad človeškim nasprotnikom v starokitajski igri go.
12 Študija obnašanja sodnikov kot članov komisije za pogojni odpust je pokazala na večjo verjetnost, da bo prošnji za pogojni odpust ugodeno, če se obravnava v jutranjih urah ali po odmoru za kosilo, kot pa sredi dneva, ko je sodnike že napadla lakota. Več: I think it’s time we broke for lunch, The Economist, 14. april 2016, www. economist.com/node/18557594.
13 Poročilo Algorithms in the Criminal Justice System, Electronic Privacy Information Center, https://epic.org/algorithmic-transparency/crim-justice/.
14 Glej www.scotusblog.com/wp-content/uploads/2017/02/16-6387-BIO.pdf .
15 Machine Bias, ProPublica.org, 23. maj 2016, www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.
16 Glej http://go.volarisgroup.com/rs/430-MBX-989/images/ProPublica_Commentary_Final_070616.pdf.
17 CaseCrunch Lawyer Challenge: Results, www.roboticslawjournal.com/news/casecrunch-lawyer-challenge-results-85492553.
18 Buocz, T. J.: Artificial Intelligence in Court: Legitimacy Problems of AI Assistance in the Judiciary, Retskraft 2018, Vol. 2/1, str. 41.
19 Angleški pregovor pravi: Garbage in garbage out. Če se algoritmu v fazi učenja posredujejo nekvalitetni podatki, bodo taki tudi njegovi rezultati.
20 Prim. Facial Recognition Is Accurate, if You’re a White Guy, The New York Times, 9. februar 2018, https://www.nytimes.com/2018/02/09/technology/facial-recognition- race-artificial-intelligence.html; Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day, The Verge, 24. marec 2016, www.theverge. com/2016/3/24/11297050/tay-microsoft-chatbot-racist.
Tax-Fin-Lex d.o.o.
pravno-poslovni portal,
založništvo in
izobraževanja
Tax-Fin-Lex d.o.o.
Železna cesta 18
1000 Ljubljana
Slovenija
T: +386 1 4324 243
E: info@tax-fin-lex.si
PONUDBA
Predstavitev portala
Zakonodaja
Sodna praksa
Strokovne publikacije
Komentarji zakonov
Zgledi knjiženj
Priročniki
Obveščanja o zakonodajnih novostih
TFL AI
TFL IZOBRAŽEVANJA
TFL SVETOVANJE
TFL BREZPLAČNO
Brezplačne storitve
Preizkusite portal TFL
E-dnevnik Lex-Novice
E-tednik TFL Glasnik
Dodatni članki