Kdor je prebral vsaj nekaj knjig znanstvene fantastike ali je vsaj povprečen obiskovalec filmskih dvoran, mu to vprašanje gotovo ni tuje. Sedaj, ko pa se našim delovnim orodjem vse bolj pridružuje tudi umetna inteligenca, pa se takšna vprašanje ne zdijo več samo fantazijska, ampak postajajo že kar logična…
Na začetku se seveda še ne bomo ukvarjali z možnostmi, da bi se kakšen nov Hal zarotil proti človeštvu in si ga skušal podrediti. Omejili se bomo na današnje stanje, ko računalnik lahko s pomočjo posebnih programov – gonilnikov umetne inteligence ustvarja brezhibno oblikovana in logična besedila, jih razpošilja po vsem svetu, sprejema odgovore in nanje odgovarja, se pri tem izpopolnjuje, uči na napakah (jih odpravlja) itd.
V takšnem okolju pa po mojem mnenju LAHKO računalnik povzroči kazniva dejanja, seveda pa jih pri tem ni STORIL, saj se vse kazenske zakonodaje omejujejo na to, da kot subjekte kazenskega pregona obravnavajo le fizične (in pravne) osebe.
Besede so pač lahko tudi hudo in nevarno orožje! In če se pojavijo na pravem mestu v pravem trenutku, lahko povzročijo tudi veliko škode in gorja. Dostikrat pri tem niti ni tako važno, kdo je besede (misel) sestavil, važna je njihova vsebina in pomen. Na primer kakšen stavek kot: »Napadite takoj!« v mobilcih članov mednarodne teroristične organizacije. Ali pa recept za izdelavo tekočega razstreliva…
V vsakem kazenskem zakoniku lahko najdemo veliko kaznivih dejanj, katerih elementi so praktično le besede! Pa tu ne gre le za poglavja o kaznivih dejanjih zoper čast in dobro ime (razžalitev, obrekovanje, žaliva obdolžitev, sramotitev tuje države itd.), kjer so pravzaprav besede izključna sestavina kaznivih dejanj. Veliko bolj so lahko nevarna (in kazniva) dejanja zoper splošno varnost ljudi in premoženja (kjer imajo sicer besede lahko ključno vlogo, a ponavadi še ne zadostno), zoper varnost javnega prometa (zlahka si zamislimo situacijo, ko je ogrožena varnost letalskega prometa le zaradi kakšnega pomembnega zavajajočega stavka), pa vohunjenje in izdaja državne tajnosti.
Za »ščuvanje k nasilni spremembi ustavne ureditve« ima skoraj vsaka država predpisane najhujše možne sankcije (tudi pri nas 30 let zapora, v primeru posledic s hudim razdejanjem), pa čeprav storilec uporablja le besede – dokaz, da so te res lahko hudo orožje…
Današnji programi za izdelovanje besedil (na podlagi modulov umetne inteligence) že lahko producirajo besedila, ki bi lahko imela prav vse znake (in tudi posledice) takšnih in podobnih kaznivih dejanj. Če bi imeli njihovi avtorji pri tem kakršenkoli slab namen, potem bi seveda (lahko) direktno preganjali njih, tako kot je bilo to že velikokrat zaradi raznih računalniških virusov in podobnih malverzacij.
Problem pa nastopi, če pride do takšnih »inkriminiranih« besedil pri programih in avtorjih, ki nikakor niso imeli takšnega (slabega) namena. V poslovni uporabi je vse več programov, ki s pomočjo tehnologije naravnega jezika in modulov umetne inteligence ustvarjajo besedila za učinkovitejše komuniciranje s strankami. Na pravnem področju bomo kmalu razvili gonilnike, ki bodo pripravili obsežna pravna besedila, od normativnih osnutkov, pogodb, upravnih aktov do obrazložitev sodnih odločb. Nekatere aplikacije (na primer za spletno arbitriranje) bodo delovale preko interneta ter bodo tako povezane (ali vsaj povezljive) z neštetimi javnimi podatki.
Za ilustracijo naj omenim program GOVORNIK, ki je bil sicer izdelan pred desetletji in temelji pretežno na naključnem tvorjenju stavkov. Pri sodobnih programih, kjer pa ne bo več kaj dosti naključja, zato pa toliko več logike, se bo prav lahko zgodilo, da bo prišlo do besedila, ki bi bilo lahko za koga resnično žaljivo. Če bi se gonilniku umetne inteligence vsaj malo »utrgalo«, bi lahko izdelal trditev, da je profesor Ta.Pa.Ta. prišel do svojega doktorata na dvomljiv način, ali da je bil včasih obveščevalec UDBE…. Imeli bomo torej »corpus delicti«, ne pa tudi njegovega avtorja. Programerji, ki so to aplikacijo pripravili, profesorja niti ne poznajo, niso imeli nobenih slabih namenov itd., da o nedolžnosti internetnega ponudnika niti ne govorimo… Skratka: prišlo je do vseh elementov kaznivega dejanja, ni pa nobenega storilca.
Po analogiji z določenimi kaznivimi dejanji, storjenimi po javnih medijih (pri nas je to določeno v 30. in 31. členu KZ) bi se morda lahko odločili za »kaznivost izdelovalca«? In se bomo verjetno tudi morali… Saj ne moremo človeštva kar prepustiti na milost in nemilost raznim računalniškim programom, ki bi naključno proizvajali (tudi) razne žaljivke, hujskanja ali ščuvanja…
Napovejmo torej, da bodo morali biti izdelovalci modulov umetne inteligence zelo previdni. Poskrbeti bodo morali, da sestavljeni stavki (in s tem tudi misli) ne bodo mogli kar nekontrolirano pricurljati v javnost, če pa bo možna sprotna (on-line) javna uporaba, potem bo moralo biti vgrajenih zelo veliko varnostnih algoritmov, predvsem tudi v smislu zaščite zasebnosti in varstva podatkov v skladu s splošnimi predpisi.
Vir, 16. 9. 2006
FORMULA(cija) za SPRAVO – OBRAZEC
Pred 5 leti