klemen.ai
Analiza  ·  8. april 2026
Esej o regulaciji

Model, ki je v enem tednu razgalil polovico svetovne digitalne infrastrukture, in Ljubljana, ki še vedno sprejema vloge po faksu

Sedemindvajset let stara ranljivost v OpenBSD. Šestnajst let stara luknja v FFmpegu, ki je preživela pet milijonov avtomatskih pregledov. Veriga napadalnih korakov v Linux jedru, spletena brez človeškega posega. Vse skupaj delo enega jezikovnega modela, objavljeno v istem mesecu, ko Evropski parlament predlaga, naj pravila za visoko tvegane umetnointeligenčne sisteme začnejo veljati leto in pol kasneje od prvotnega roka.

Faks v ministrskem kabinetu — simbol regulacijske zastarelosti

Če ste direktor informacijske varnosti v slovenski banki, zavarovalnici ali državnem organu, potem pazljivo preberite naslednji odstavek. To ni ena od tistih tehnoloških zgodb, pri katerih moraš najprej ugibati, koliko je v njih marketinga. Dokument obstaja, objavilo ga je eno od vodilnih ameriških podjetij za umetno inteligenco, na svoji uradni spletni strani, datum je sedmi april 2026, podpisalo ga je z imenom podjetja.

Podjetje se imenuje Anthropic. Model, o katerem govori, se imenuje Claude Mythos Preview. V nekaj tednih pred objavo je ta model samostojno, brez človeškega usmerjanja, v odprtokodni kodi, ki poganja skorajda vse, kar poznate kot digitalno okolje, odkril na tisoče varnostnih ranljivosti. Med njimi so bile nekatere, ki se nanašajo na dobesedno vse glavne operacijske sisteme in vse glavne brskalnike, ki jih danes uporabljate.[1] Včerajšnja vožnja v službo z brskalnikom na telefonu, jutranje odpiranje elektronske pošte na računalniku, bančna transakcija prek spletne aplikacije — vse to se je tisti teden odvilo v sistemih, katerih luknje je zaznal in opisal ta model, preden jih je bil kdorkoli drug zmožen opaziti.

Poglejmo tri primere, ki jih je Anthropic izrecno navedel. V operacijskem sistemu OpenBSD, ki velja za enega najbolj utrjenih na svetu in poganja požarne zidove velikega dela korporativne Evrope, je model odkril sedemindvajset let staro ranljivost. Sedemindvajset let. V sedemindvajsetih letih so to kodo pregledale generacije varnostnih raziskovalcev, avtomatski skenerji so jo preleteli neštetokrat, revizijske ekipe so jo predelovale vsakič, ko se je pojavila nova različica jedra. Ranljivost je preživela vse to. Mythos jo je našel v enem izmed prvih tednov svojega preizkušanja in pokazal, kako napadalec z navadnim omrežnim povezovanjem oddaljeno sesuje katerikoli stroj s tem sistemom.

V FFmpegu, knjižnici za obdelavo videa, ki stoji med vami in tako rekoč vsako video vsebino, kar jih poznate, je model našel šestnajst let staro napako v eni sami vrstici kode. Tisti vrstici, mimo katere so avtomatski varnostni testi zapeljali pet milijonov krat, ne da bi kdaj prepoznali, kaj gledajo. Pa tretji primer. V Linux jedru, ki poganja večino strežnikov tega sveta, je model samostojno odkril več ločenih lukenj, nato pa — in prav to je najbolj vznemirljivo — jih je sam povezal v verigo, ki napadalcu iz navadnega uporabniškega računa omogoča popolno prevzemanje stroja. Sposobnost ločenega iskanja napak je tehnično vprašanje in jo premorejo tudi dobri skenerji. Sposobnost povezovanja teh napak v smiseln napadalni scenarij je razmišljujoča sposobnost, ki je bila do pomladi 2026 nesporno rezervirana za najboljše ljudi te stroke.

Anthropic se je ob tem odločil za nenavaden korak, ki ga svetovna zgodovina razvoja jezikovnih modelov še ni doživela. Modela ni dal na javni trg. Dostop je omejil na dvanajst lansirnih partnerjev — med njimi so Amazon Web Services, Apple, Google, JPMorganChase, Microsoft, NVIDIA in Linux Foundation — ki ga smejo uporabljati izključno za obrambno kibernetsko delo.[2] Pobudo so poimenovali Project Glasswing. Anthropic je zanjo namenil sto milijonov dolarjev kreditov za uporabo in štiri milijone dolarjev donacij odprtokodnemu varnostnemu ekosistemu — od tega 2,5 milijona prek Linux Foundation in 1,5 milijona Apache Software Foundation. Ta odločitev se ni zgodila zato, ker bi podjetje k njej prisilil zakonodajalec. Zgodila se je, ker je podjetje samo ocenilo, da bi splošna dostopnost tega modela pomenila preveliko tveganje za svetovno kritično infrastrukturo.

Osemnajstega marca 2026 sta pristojna odbora Evropskega parlamenta (IMCO in LIBE) s 101 glasom proti devetim podprla predlog, da se uveljavitev pravil za visokotvegane sisteme umetne inteligence, ki bi se sicer začela uporabljati avgusta 2026, zamakne za šestnajst mesecev. Temu predlogu je nato 26. marca 2026 pritrdil še celoten Evropski parlament na plenarnem zasedanju, s čimer se je predvideni rok za sisteme iz Priloge III (npr. biometrija, zaposlovanje, kritična infrastruktura) premaknil na 2. december 2027. Uradna obrazložitev poudarja, da ključni harmonizirani standardi še niso pripravljeni, kar bi brez odloga povzročilo pravno negotovost za podjetja.

V isti državi, ki z Aktom o umetni inteligenci nastopa kot svetovni zgled pametne regulacije, sistematična analiza slovenskega pravnega reda razkriva, da več kot deset slovenskih zakonov še vedno izrecno omenja faks kot legitimno sredstvo pravne komunikacije z državljanom. Po analizi moje platforme Pravni rentgen dvainštirideset odstotkov vseh členov nalaga državljanom birokratska bremena, ki jih povprečen človek z dvojezičnim jezikovnim modelom v žepu pogosto pravočasno niti ne razume. Petnajst odstotkov členov svojim uradnikom z nedoločenimi pravnimi pojmi podeljuje diskrecijo, ki se v praksi preobraža v izostreno stopnjo uradniške samovolje. Skoraj polovica vseh 48.000 členov slovenske zakonodaje je po determinističnih merilih Teorije razumske regulacije problematičnih.[3]

Ta razkorak je po mojem bistven. Na eni strani model, ki v nekaj tednih najde napake, ki so v kodi preživele desetletja. Na drugi strani pravni in upravni sistem, ki v letu 2026 še vedno povsem resno računa na faks. Pričujoči zapis poskuša razumeti, kako smo prišli do tu in kako iz tega položaja izplezati.

§ 01 — MejnikKaj pravzaprav zmore Mythos Preview

Številke, ki jih Anthropic navaja v dokumentu Project Glasswing, zahtevajo nekaj prevajanja. Benchmarki, ki jih tehnična skupnost uporablja za ocenjevanje zmogljivosti jezikovnih modelov, pravniku in finančnemu nadzorniku ne povedo veliko. Zato sem pri vsakem od grafov, ki sledijo, dodal kratko razlago, kaj posamezna metrika sploh meri in koliko bi pri njej dosegel izkušen človek v stroki. Razlaga se pojavi, ko s kazalcem preidete čez ime metrike. Na mobilni napravi zadostuje dotik z imenom.

Kako brati te grafe. Nad vsako metriko postavite kazalec (na mobilni napravi jo pritisnite) in prejeli boste preprosto razlago, kaj meri in kakšen človeški rezultat bi ji ustrezal. Številke same po sebi malokomu veliko povedo, razmerje do človeškega strokovnjaka pa razkrije dejansko velikost premika.
Graf 1 — Samostojno pisanje in popravljanje kode
Razmik med Mythosom in Claude Opus 4.6 na petih kodirnih testih
SWE-bench Verifiedpopravki v Python projektih
93,9 %
Opus 4.6
80,8 %
SWE-bench Provečdatotečne napake
77,8 %
Opus 4.6
53,4 %
SWE-bench Multilingualveč programskih jezikov
87,3 %
Opus 4.6
77,8 %
SWE-bench Multimodalnapake s priloženimi slikami
59,0 %
Opus 4.6
27,1 %
Terminal-Bench 2.0samostojno delo v terminalu
82,0 %
Opus 4.6
65,4 %

Vir: Anthropic, Project Glasswing, 7. april 2026.[2] SWE-bench Multimodal je Anthropic izvedel z interno implementacijo, zato rezultati s tega testa niso neposredno primerljivi z javnimi lestvicami. Pri Terminal-Bench 2.0 je Mythos ob povečanem časovnem proračunu dosegel 92,1 %.

Skok pri SWE-bench Multimodal, od komaj dobrih petindvajsetih odstotkov pri prejšnji generaciji do skoraj šestdesetih odstotkov pri Mythosu, zasluži posebno pozornost. Gre namreč za prehod čez razmišljujoči prag, pri katerem model pogleda zaslonski posnetek napake in razume, kaj je v njegovi kodi narobe. Podoben skok se pokaže pri SWE-bench Pro, kjer razmik znaša približno štiriindvajset odstotnih točk. Neodvisna analiza, ki jo je na spletni platformi LessWrong objavil raziskovalec Matt MacDermott, na podlagi časovne razporeditve razvojnih popravkov v javnih projektih ocenjuje, da 93,9-odstotna uspešnost modela na SWE-bench Verified ustreza približno štiriintridesetim uram samostojnega programerskega dela pri pol-zanesljivem izvajanju. Prejšnja generacija Opus 4.6 je pri isti metriki dosegala šest ur.[4] Model v praksi pomeni, da lahko dan in pol zaporedoma samostojno dela, preden izgubi nit svoje naloge.

Druga skupina meritev zadeva sklepanje in splošno znanje. Tu so razlike manjše, ker so klasični testi že nasičeni — razen v enem primeru, ki zasluži podrobnejšo obravnavo.

Graf 2 — Sklepanje, znanje, kibernetska varnost
Kje se je nebo razprlo najširše
GPQA Diamonddoktorska znanstvena vprašanja
94,6 %
Opus 4.6
91,3 %
USAMOmatematična olimpijada ZDA
97,6 %
Opus 4.6
42,3 %
HLE brez orodijHumanity’s Last Exam
56,8 %
Opus 4.6
40,0 %
CyberGymreprodukcija varnostnih ranljivosti
83,1 %
Opus 4.6
66,6 %

Vir: Anthropic, Project Glasswing, 7. april 2026.[2] Pri Humanity’s Last Exam se rezultat Mythosa ohrani tudi pri nižjih proračunih sklepanja, kar po lastni opombi Anthropica lahko nakazuje delni učinek pomnjenja odgovorov. Rezultat velja jemati previdno.

USAMO, ameriška matematična olimpijada, je številka, ki je pravnik ne bi smel spregledati. Pri njej ne gre za računanje pravilnega odgovora, ampak za pisanje formalnega matematičnega dokaza, ki ga ocenjujejo izkušeni matematiki po kakovosti argumentiranja. Prav argumentiranja. Tistega razmišljujočega procesa, ki stoji za vsako dobro pravno vlogo, za vsako trdno odločbo, za vsakim zanesljivim pravnim mnenjem. Ko je torej Mythos na USAMO dosegel 97,6 odstotka, je to za pravno stroko signal, da jezikovno sklepanje modelov že presega raven, pri kateri zmorejo samostojno pisati olimpijske matematične dokaze. Za pravnika, ki spremlja razvoj, pa sporočilo, ki si ga je vredno zapisati v beležko. Če model zmore dokaz, kakršnega je pred letom znal tekmovalni matematik, potem bržkone zmore tudi argumentacijo, kakršno je pred letom znal izkušen odvetnik.

Prvič v doslej kratki zgodovini razvoja jezikovnih modelov je proizvajalec sam ocenil, da bi javna izdaja njegovega produkta pomenila sistemsko tveganje za svetovno kritično infrastrukturo, in se po tej oceni tudi ravnal. Regulatorna prisila pri tej odločitvi ni sodelovala. Anthropic je presodil sam.[2]

— temeljna ugotovitev

§ 02 — ParadoksAnthropic ravna hitreje od regulatorja

Akt o umetni inteligenci — Uredba (EU) 2024/1689 — v členih 51 do 55 ureja kategorijo splošnonamenskih modelov s sistemskim tveganjem.[5] Člen 51(1) postavlja dva temelja za razvrstitev. Model velja za sistemsko tveganega bodisi zato, ker izkazuje visoko zmogljive sposobnosti, ocenjene po ustreznih tehničnih orodjih in metodologijah, bodisi zato, ker je bil natreniran z računsko močjo, ki presega 1025 FLOP. Drugi kriterij je zakonska domneva. Kdor ta prag preseže, je po samem aktu razvrščen kot sistemsko tvegani ponudnik, dokler domneve ne ovrže. Člen 52 od njega zahteva, da o tem brez odlašanja in najpozneje v dveh tednih obvesti Evropsko komisijo. Ta lahko status modela označi tudi po uradni dolžnosti, na lastno pobudo ali na opozorilo svojega znanstvenega panela.

Obveznosti iz členov 53 in 55 — priprava tehnične dokumentacije, ocena sistemskega tveganja, adversarialno preizkušanje, poročanje o resnih incidentih, vzpostavitev okvira kibernetske varnosti — se za ponudnike splošnonamenskih modelov uporabljajo vse od 2. avgusta 2025.[6] Načeloma bi Mythos Preview v to kategorijo padel. V praksi je slika bolj zapletena.

Akt v členu 3(9) opredeljuje dajanje na trg kot prvo dobavo modela ali sistema na trg Unije, v členu 3(11) pa dajanje v uporabo kot prvo dobavo sistema neposrednemu uporabniku. Claude Mythos Preview se v to pravno shemo ne umešča povsem naravno. Model ni javno dostopen prek nobene komercialne ponudbe Anthropica. Dostopen je dvanajstim vnaprej izbranim partnerjem znotraj raziskovalne iniciative, na podlagi pogodbenih dogovorov, pri čemer Anthropic sam krije uporabo prek obsežnega kreditnega sklada. Odprto ostaja pravno vprašanje, ali tako omejen dostop partnerskim organizacijam že pomeni dajanje modela na trg Unije v smislu člena 3(9). Odgovor je odvisen od konkretne pogodbene in operativne strukture dostopa, vsebine pogodb s partnerji in geografskega obsega njihove uporabe. Gre za pravno vprašanje, ki ga bo treba rešiti od primera do primera, ne za avtomatski rez.

Prav ta siva cona razkriva nekaj, kar bi ob prvem pogledu zlahka spregledali. Akt formalno deluje, saj členi 51 do 55 veljajo od avgusta 2025. Njegovi nadzorni mehanizmi v praksi delujejo počasneje, kakor to zahteva tempo razvoja najzmogljivejših modelov. Med trenutkom, ko model izkaže visoko tvegane zmogljivosti, in trenutkom, ko bi Evropska komisija zares začela voditi nadzor nad njim, mine več mesecev. V tem oknu je Anthropic svojo oceno tveganja opravil sam in po njej tudi ravnal.

Anthropic s svojo potezo ni prevzel vloge regulatorja. Uvedel je strožji režim dostopa, preden bi evropski nadzorni mehanizmi v praksi lahko učinkovito posegli v primer.

— presoja členov 51 in 52 Akta o umetni inteligenci, brano skozi kronologijo aprila 2026

Razlika se zdi na prvi pogled majhna. Pomislimo pa, kako se gradi institucionalno zaupanje: prostovoljni korak podjetja ne more nadomestiti regulacije. Tega argumenta ne smem izpustiti iz rok. Kar lahko pa tak korak opravi, je opozorilo. Marca in aprila 2026 smo ga prejeli z nenavadno natančnostjo: trenutni regulacijski instrumenti ne dohajajo hitrosti dogajanja, ki bi ga želeli urediti.

§ 03 — ZamikKronologija, ki pripoveduje svojo zgodbo

Dvajset dni pred Mythosovo objavo se je v Evropskem parlamentu zgodilo nekaj, kar v medijski pokritosti ni dobilo niti približno primerljive pozornosti. Za vsakdan slovenskih podjetij in institucij pa ima večji neposreden učinek kot Anthropicova objava.

Osemnajstega marca 2026 sta pristojna odbora (IMCO in LIBE) sprejela poročilo o t. i. paketu Digital Omnibus (referenca A10-0073/2026), ki mu je nato 26. marca 2026 s prepričljivo večino pritrdil tudi Evropski parlament na plenarnem zasedanju. Izglasovano poročilo predlaga zamike rokov za visokotvegane sisteme umetne inteligence: za tiste iz Priloge III (biometrija, kritična infrastruktura, zaposlovanje itd.) se uveljavitev obveznosti z 2. avgusta 2026 pomika na 2. december 2027, za sisteme iz Priloge I (medicinski pripomočki, stroji, igrače) pa na 2. avgust 2028.

Potrebna je previdna formulacija: čeprav je Parlament svoje stališče že potrdil, postopek še ni zaključen. Predlagani odlog postane zakon šele po formalni potrditvi v Svetu EU, s katerim Parlament trenutno vodi trialog. Kljub temu ima potrjen predlog ob podpori Komisije in širokem političnem soglasju v Parlamentu takšno težo, da že zdaj predstavlja dejanski kurz evropske politike. Ko se v nadaljnjem besedilu sklicujem na datume 2. december 2027 in 2. avgust 2028, imam v mislih te nove predlagane roke, ki čakajo na dokončno uveljavitev.

Graf 3 — Časovnica

Regulacijski in tehnološki tempo, postavljen drug ob drugega

Junij 2024Regulacija

Sprejem Akta o umetni inteligenci

Evropski parlament in Svet sprejmeta Uredbo (EU) 2024/1689, prvi horizontalni zakon o umetni inteligenci na svetu.

Februar 2025Prva uveljavitev

Veljavnost prepovedanih praks

Začnejo se uporabljati določbe, ki prepovedujejo nekatere vrste umetnointeligenčnih sistemov — socialno točkovanje, prediktivno policijsko delo, zbiranje obraznih podob iz interneta.

Avgust 2025GPAI obveznosti

Obveznosti za splošnonamenske modele

Členi 53 in 55 začnejo veljati: tehnična dokumentacija, ocena sistemskega tveganja, adversarialno preizkušanje, poročanje o resnih incidentih.

November 2025Komisija

Predlog paketa Digital Omnibus

Evropska komisija predstavi paket sprememb, ki predlaga zamik uveljavitve visokotveganih sistemov z avgusta 2026 dalje.

18. marec 2026Odbori IMCO + LIBE

Glasovanje pristojnih odborov

IMCO in LIBE s prepričljivo večino sprejmeta poročilo A10-0073/2026 o zamiku rokov.

101 : 9 : 8
26. marec 2026Plenum

Plenarna potrditev Parlamenta

Celoten Evropski parlament potrdi poročilo odborov. Postopek se nadaljuje v trialogu s Svetom EU.

7. april 2026Anthropic

Claude Mythos Preview — kartica sistema

Anthropic razglasi model, ki je samostojno razgalil ranljivosti v glavnih operacijskih sistemih in brskalnikih — in se prostovoljno odloči, da ga ne da na javni trg.

Project Glasswing — dan 0
2. december 2027Predlagani rok

Priloga III — uveljavitev

Predvidena uveljavitev obveznosti za visokotvegane sisteme iz Priloge III (biometrija, kritična infrastruktura, zaposlovanje, kazenski pregon). Zamik +16 mesecev.

2. avgust 2028Predlagani rok

Priloga I — uveljavitev

Predvidena uveljavitev obveznosti za sisteme iz Priloge I (medicinski pripomočki, stroji, dvigala, igrače). Zamik +24 mesecev.

Viri: Uredba 2024/1689,[5] Euronews (19. 11. 2025),[8] PPC Land (19. 3. 2026),[7] Anthropic Project Glasswing (7. 4. 2026).[2]

Na isti časovni osi, med sprejemom akta junija 2024 in predlaganim datumom uveljavitve pravil za Prilogo III decembra 2027, so se med najzmogljivejšimi modeli zvrstili vsaj štirje generacijski koraki. Vsakokrat, ko bi evropski zakonodajalec lahko rekel, da tempo drži, se je najbolj napredni razvoj že premaknil dve postaji naprej. Uradna obrazložitev odloga trdi, da harmonizirani standardi še niso pripravljeni in da mnoge države članice niso imenovale pristojnih nadzornih organov.[8] Obe trditvi sta tehnično točni. Vsebinsko pa razkrivata povratno zanko, v kateri vsak člen opravičuje svoj zamik z zamikom drugega.

§ 04 — SlovenijaKabinetni faks in 48.000 členov

Naš bralec bi zdaj upravičeno vprašal, ali obstaja empirično preverljivi dokaz, da klasični zakonodajni postopek — v odsotnosti prilagodljivih mehanizmov — dejansko proizvaja kopičeno nedoslednost, s katero se institucionalni nadzor v realnem času ne more več spoprijemati. Odgovor je pritrdilen. Dokaz je slovenski.

Zadnje mesece razvijam platformo, imenovano Pravni Rentgen. Gre za sistem, ki kombinira deterministično analizo in jezikovne modele za celovit pregled slovenskega pravnega reda po merilih Teorije razumske regulacije. Analiza zajema več kot 740 zakonov in več kot 48.000 členov. Rezultati niso ocene ali približki. So deterministični izhod javno objavljene metodologije, dostopen komurkoli na pravnirentgen.si/ugotovitve. Dokaz je torej preverljiv.

Pravni Rentgen — posnetek aprila 2026
Kaj razkriva sistematična analiza slovenskega pravnega reda
50 %
členov je ocenjenih kot problematičnih po determinističnih merilih (skupna ocena 6 ali manj od 10)
42 %
členov nalaga birokratske obveznosti za stranko, ki jih povprečen državljan ne razume v celoti
15 %
členov uporablja nedoločene pravne pojme (primerno, ustrezno, brez odlašanja), ki prepuščajo presojo uradnikom
12 %
členov je neprijaznih umetni inteligenci in digitalizaciji — napisani so tako, da jih ni mogoče smiselno avtomatizirati
10+
zakonov v letu 2026 še vedno izrecno omenja faks kot legitimno sredstvo pravne komunikacije
48.000
členov v več kot 740 zakonih je vstopilo v analizo po enotni metodologiji in je javno dostopnih
Vir: Pravni Rentgen — pravnirentgen.si/ugotovitve, stanje april 2026

Gre za sistematičen presek stanja slovenskega pravnega reda, opravljen po enotni metodologiji in dostopen vsakomur, ki je pripravljen klikniti. Dvainštirideset odstotkov členov nalaga stranki neko vrsto birokratske obveznosti. To se prevede v dejstvo, da skoraj polovica našega zakonodajnega korpusa deluje tako, da od državljana ali gospodarskega subjekta zahteva dejanje, ki ga ta pogosto niti ne zmore pravilno izvesti brez strokovne pomoči. Petnajst odstotkov členov uporablja nedoločene pravne pojme. Kaj to pomeni v praksi? Pomeni, da se o tem, ali je vaš postopek primeren ali pa je bila vaša reakcija brez odlašanja, odloča uradnik po lastni presoji. Včasih je to dobrodošlo zaradi potrebne prožnosti. Pogosteje pa prinaša negotovost, ki se ponaša z najbolj neprivlačnim imenom, kar jih pozna upravno pravo: samovolja.

In potem je tu faks.

V pravnem redu, ki ga je analizirala platforma, več kot deset slovenskih zakonov v letu 2026 še vedno izrecno omenja faks kot legitimno sredstvo komunikacije z državljanom. Ne kot arhaični relikt, ki ga bo pred naslednjo novelo kdo odstranil, temveč kot uradno kanonizirano pot, po kateri se v letu dva tisoč šestindvajset vzpostavlja pravno razmerje med Republiko Slovenijo in njenimi prebivalci. Medtem ko Anthropicov Mythos v istem tednu, ko beremo te podatke, samostojno razpleta sedemindvajsetletne napake v kodi, ki poganja svetovno infrastrukturo, slovenski ministrski kabinet pod svojimi zakonskimi določili še vedno dopušča, da nam odločbo pošlje po napravi, ki jo je ob vsakem uspešnem prenosu treba zaliti z barvnim prahom.

Gre za primer, ki ga ni treba razlagati.

Medtem ko slovenska zakonodaja v letu 2026 še vedno zahteva, da se vloge pošiljajo malodane s poštnimi golobi, en sam napredni model v istem mesecu tiho povozi enega najbolj naprednih aktov, kar jih je kdaj napisala Evropska unija.

Ta kontrast sam po sebi povzema osrednjo tezo pričujočega zapisa. Če v razmeroma koherentnem slovenskem pravnem redu najdemo takšne sledi regulacijske zastarelosti, kakšno stopnjo propadanja šele čaka Akt o umetni inteligenci po desetih letih delegiranih aktov, implementacijskih smernic, nacionalnih transpozicij in sektorskih posebnosti? Priloga III se bo širila. Pojmi se bodo natančneje opredeljevali. Smernice se bodo množile. Sistem, ki že danes škripa v svoji zasnovi, bo čez deset let postal približno tako prebaven kot povprečen sklop slovenskih predpisov iz devetdesetih let.

§ 05 — DiagnozaStrukturna napaka, ne slaba volja

Na tej točki moram pojasniti nekaj, kar se mi zdi za razumevanje celotnega argumenta pomembno. Ne nastopam kot nasprotnik Akta o umetni inteligenci. V postopku njegovega nastajanja so sodelovali izvrstni evropski pravniki, etiki in tehnologi. Akt vsebuje več intelektualno pronicljivih rešitev, med drugim raven varstva temeljnih pravic pri biometričnih sistemih, ki je globalno edinstvena. Kritiziranje akta kot celote bi bilo intelektualno pritlikavo in bi zaslužilo prezir vsakogar, ki se s pravno materijo resno ukvarja.

Diagnosticiram pa nekaj drugega. Strukturno neujemanje med metodo klasične evropske zakonodaje in tempom eksponentno rastoče tehnologije. Klasični zakonodajni postopek Unije poteka v več zaporednih fazah. Zelena knjiga ali posvetovanje Komisije, predlog, trialog med Komisijo, Parlamentom in Svetom, sprejem, objava, prehodno obdobje, uveljavitev. Za zapletene regulacijske pakete celotni postopek traja približno šest let. V farmacevtski, avtomobilski in potrošniški regulaciji je takšen časovni okvir povsem razumen, ker se temeljne predpostavke urejane dejavnosti v šestih letih bistveno ne spremenijo.

V razvoju jezikovnih modelov pa šest let pomeni od štirih do šestih generacijskih korakov. GPT-3 je bil objavljen junija 2020. Šest let pozneje, aprila 2026, je razvoj pripeljal do Mythos Previewa, ki po večini metrik presega povprečnega človeškega strokovnjaka v programiranju, matematiki in kibernetski varnosti. Takšen razpon ne prenese periodičnih zakonodajnih popravkov. Gre za tehnološko revolucijo, ki se v celoti odvije znotraj enega samega zakonodajnega cikla, prehitro, da bi ga ta cikel sploh lahko občutil.

Priloga III kot arhiv

Najbolj konkretna ponazoritev strukturnega problema je Priloga III Akta o umetni inteligenci. Seznam visoko tveganih uporab je bil idejno zasnovan leta 2021, dokončno oblikovan leta 2023, začetek uporabe pa se zdaj predlaga za december 2027. Med trenutkom, ko je bil seznam intelektualno zaključen, in trenutkom, ko bo začel veljati, bo minilo šest let.

Vzemimo tri točke s tega seznama in jih primerjajmo z realnostjo pomladi 2026.

Zaposlovanje (točka 4) — Priloga govori o sistemih za zaposlovanje ali izbor in je pisana z mislijo na klasične algoritme za pregled življenjepisov. Leta 2026 poteka postopek zaposlovanja drugače. Kandidati svoje življenjepise pišejo z jezikovnimi modeli. Razgovore vodijo avatarji umetne inteligence. Prvi krog vrednotenja opravijo samostojni agenti v zaprtih zankah. Končno razvrstitev pogosto pripravi isti model, ki je kandidata predhodno intervjuval. Katera stran tega postopka sploh ustreza pojmu visoko tvegani umetnointeligenčni sistem, ki ga akt želi urediti? Vse? Nobena? Priloga III odgovora nima.

Kreditno ocenjevanje (točka 5) — Pokriti so sistemi za ocenjevanje kreditne sposobnosti in so pisani z mislijo na klasične točkovne modele. Banke danes uporabljajo jezikovne modele za analizo pogovorov s strankami, za razbiranje mehkih signalov iz elektronske korespondence, za samodejno pripravo osnutkov kreditnih poročil. Pravno gledano gre zelo verjetno za ocenjevanje kreditne sposobnosti. Dikcija priloge takšnega scenarija niti ne nakazuje.

Kazenski pregon (točka 6) — Priloga izrecno navaja poligrafe in podobna orodja. Poligraf je naprava iz dvajsetih let prejšnjega stoletja. V letu 2026 obstajajo modeli, ki iz glasovnega odtisa, mikromimike in jezikovnih vzorcev z večjo natančnostjo od poligrafa sklepajo o stresu in zavajanju. Pojma podobna orodja ne izpolnjujejo. Gre za drugačno tehnološko vrsto, ki je dikcija priloge izrecno ne pokriva.

K tem trem primerom naj dodam še eno razsežnost. Akt o umetni inteligenci konceptualno ločuje med modelom (členi 51 do 55) in sistemom (členi 6 do 9). Najbolj napreden razvoj se medtem hitro premika proti samostojnim agentom, orkestracijam, uporabi orodij in zaprto omejenim dostopnim režimom, kakršen je Project Glasswing. Mythos Preview je po formalni klasifikaciji model. V praksi pa ga partnerji uporabljajo kot samostojnega agenta, ki brez človeškega posega izvaja dolge verige dejanj. Na katero od obeh konceptualnih kategorij akta se takšna uporaba priključi, je vprašanje, ki ga besedilo iz leta 2021 ne more razumeti. Ne gre za napako avtorjev. Gre za posledico tega, da se je tehnološki jezik med letoma 2021 in 2026 premaknil tako daleč, da stari pojmi zanj več ne zadoščajo.

§ 06 — PredlogiPet mehanizmov prilagodljive regulacije

Diagnoza brez predloga je kritika, ki služi kritiku. Zato v tem delu predstavljam pet konkretnih mehanizmov, s katerimi bi Evropska unija klasični statični regulacijski model nadgradila v prilagodljivega. Mehanizmi kot posamezni koncepti niso izvirni, saj so bili v različnih oblikah že predlagani v akademskih in policy krogih. Izvirna je moja trditev, da jih je treba sprejeti skupaj, ker posamezen ukrep brez drugih ne zadostuje.

  1. Periodna šestmesečna revizija Priloge III

    Akt v členu 7 predvideva, da Komisija prilogo lahko spreminja z delegiranimi akti, v členu 112 pa zgolj splošno revizijo šele štiri leta po sprejemu. Oboje zamuja. Priloga III naj bo podvržena obvezni strokovni reviziji vsakih šest mesecev, s preglednim postopkom vključevanja znanstvenega panela in zunanjih strokovnjakov. Mehanizem formalno obstaja, manjka mu ritem.

  2. Klavzule o samodejnem prenehanju veljave tehničnih definicij

    Definicije, ki temeljijo na specifičnih tehničnih kazalnikih — FLOP prag v členu 51, opredelitev splošnonamenskih umetnointeligenčnih modelov v členu 3(63), pojem visokega tveganja v povezavi s Prilogo III — naj imajo vgrajen rok trajanja. Po štiriindvajsetih mesecih naj samodejno ugasnejo, razen če jih Urad za umetno inteligenco s prenovljeno dikcijo formalno obnovi. Tak mehanizem bi preprečil položaj, v katerem zastareli tehnični prag formalno še vedno velja, čeprav je njegova vsebinska vrednost že potekla.

  3. Regulatorni peskovniki kot privzeto stanje

    Člen 57 akta peskovnike predvideva kot izbirno možnost, ki jo države članice uvajajo po lastni presoji. V prilagodljivem modelu naj postanejo obvezen prvi korak. Vsak najbolj napredni model naj pred dostopom na evropski trg preide skozi standardiziran peskovnik Unije z jasnimi protokoli nasprotnega preizkušanja. Primerjava s farmacevtskimi kliničnimi preskušanji je očitna in argument za enakopravno obravnavo dosleden.

  4. Inteligentna regulacijska analiza v realnem času

    Najbolj radikalen in obenem najbolj naraven predlog. Če imamo modele, ki zmorejo analizirati 48.000 pravnih členov in v njih najti nedoslednosti, kakršnih človeški pravniki ne vidijo — to je natanko tisto, kar počne Pravni rentgen — zakaj jih ne bi uporabili tudi za samo regulacijo? Urad za umetno inteligenco naj razpolaga z orodjem, ki v realnem času spremlja znanstvene objave, kartice sistemov in javno dostopne meritve zmogljivosti in Komisiji predlaga ukrepe. Tehnologija obstaja. Politična volja za njeno uporabo v institucijah šele nastaja.

  5. Zavezujoča transparentnost kartic sistemov

    Anthropic je prostovoljno objavil obsežno analizo Mythos Preview, v kateri razkriva zmogljivosti, rezultate varnostnih testov in morebitna tveganja. Takšne ravni preglednosti Akt o umetni inteligenci v nobeni določbi ne zahteva. Člen 53 govori zgolj o splošni tehnični dokumentaciji. Standard za najbolj napredne modele naj bo javno objavljena kartica sistema v obsegu in kakovosti, kakršne je Anthropic pokazal prostovoljno. Če podjetje zmore tak dokument ustvariti prostovoljno, mu regulator lahko njegovo pripravo naloži kot pravno obveznost.

Primer onkraj Rokavskega preliva

Blizu evropskega prostora obstaja primer, ki predloge zgoraj v manjšem obsegu že uveljavlja. Po izstopu iz Evropske unije se je Združeno kraljestvo odločilo, da ne bo sprejelo enega horizontalnega zakona o umetni inteligenci po vzoru Unije. Namesto tega je februarja 2024 objavilo dokument A pro-innovation approach to AI regulation, ki obstoječim sektorskim regulatorjem — ICO za varstvo podatkov, CMA za konkurenco, Ofcom za komunikacije, FCA za finance — nalaga, da pet načel o varnosti, preglednosti, poštenosti, odgovornosti in možnosti izpodbijanja uporabijo v svojih domenah po lastni presoji. Tak pristop angleški pravnik imenuje regulacija po načelih. Pristop Evropske unije pa regulacija po pravilih.

Združeno kraljestvo
Regulacija po načelih
  • Usmerjanje prek načel. Visokonivojska, sektorsko nevtralna načela dajejo smer brez predpisovanja podrobnosti.
  • Razlaga, ki jo vodijo regulatorji. Nadzorni organi presojajo po posameznih primerih, kar omogoča upoštevanje konteksta in prožnost.
  • Poudarek na inovaciji in prilagodljivosti. Pristop spodbuja preizkušanje in hitrejše odzivanje na nova tveganja.
Evropska unija
Regulacija po pravilih (Akt o umetni inteligenci)
  • Pravno zavezujoče obveznosti. Podrobne, na tveganju temelječe zahteve določajo jasne dolžnosti ponudnikov in uvajalcev.
  • Harmonizirano izvrševanje. Enotna uporaba po državah članicah zagotavlja močan nadzor in odgovornost.
  • Strukturirano upravljanje. Opredeljene vloge, dokumentacija, preglednost in ocene skladnosti omogočajo urejeno izvajanje.

Privlačno bi bilo reči, da ima Združeno kraljestvo prav in Evropska unija narobe. Takšna sodba pa bi bila netočna. Oba pristopa imata resne prednosti in resne slabosti, ki jih dobro opisujeta obe strani zagovornikov. Združeno kraljestvo je pridobilo prožnost in manj upravnega bremena za inovatorje, plačalo pa z manjšo pravno predvidljivostjo in razpršeno odgovornostjo, zaradi katere podjetja pogosto ne vedo, kateri regulator bo o njihovem primeru odločal. Evropska unija je pridobila pravno predvidljivost in doslednost čez petindvajset držav članic, plačala pa s togostjo, ki jo prikazuje časovnica iz tretjega poglavja pričujočega zapisa. Leta 2025 je laburistična vlada Združenega kraljestva sama priznala, da bodo najverjetneje morali sprejeti vsaj minimalni horizontalni zakon o umetni inteligenci, ker razpršenost regulatorjev ne zadošča več za obvladovanje najzmogljivejših modelov.

Pomembno je torej razumeti, da pred nami ni izbira med pristopoma, temveč prenos tistih elementov, ki v vsakem od njiju delujejo, v drugega. Prilagodljivi mehanizmi britanskega modela, zlasti razlaga, ki jo vodijo regulatorji, in osredotočenost na načela, ki preživijo tehnološke spremembe, bi Evropska unija lahko uporabila znotraj obstoječega okvira Akta o umetni inteligenci, ne da bi razpustila njegovo harmonizirano osnovo. Združeno kraljestvo bi imelo koristi od strukturiranega upravljanja, kakršno je razvila Unija, zlasti na področju preglednosti kartic sistemov in registra visoko tveganih sistemov. Mojih pet mehanizmov iz tega poglavja je natanko tak poskus sinteze. Obdržati pravno predvidljivost evropskega modela in dodati prožnost britanskega.

Teh pet mehanizmov Akta o umetni inteligenci ne nadomesti. Nadgrajuje ga. Sestavljajo meta okvir, znotraj katerega klasična regulacija lahko obstaja, ne da bi zmrznila v trenutku svojega sprejema. Pomenijo prehod iz modela, v katerem zakonodajalec napiše pravilo in upa, da bo držalo deset let, v model, v katerem zakonodajalec postavi proces in dopusti, da se pravila razvijajo skupaj s tehnologijo. Takšna prilagodljivost ne pomeni deregulacije. Pomeni dinamično regulacijo. Mythos nas, če zna kaj povedati, uči, da potrebujemo bolj dinamično regulacijo, ne manj.

§ 07 — ZaključekPravila za obdobje, v katerem bomo morda že spali

Vrnimo se h kroniki. Osemnajstega marca 2026 je Evropski parlament prek svojih odborov z izrazito večino predlagal odlog uveljavitve obveznosti za visoko tvegane umetnointeligenčne sisteme iz Priloge III z avgusta 2026 na december 2027. Za sisteme iz Priloge I se predlagani rok pomakne še za dodatnih osem mesecev, na avgust 2028. Uradna obrazložitev govori o pripravljenosti harmoniziranih standardov in pristojnih organov držav članic. Sedmega aprila 2026 je Anthropic v dokumentu Project Glasswing razglasil, da je zgradil jezikovni model s samostojnim programerskim horizontom več deset ur, z matematičnim sklepanjem na ravni olimpijskih dokazov in s sposobnostjo samostojnega iskanja ranljivosti v vseh glavnih operacijskih sistemih in vseh glavnih brskalnikih. Objavo je spremljala odločitev podjetja, da modela ne da v splošno uporabo.

Potrebna je previdnost pri formulaciji, ki sledi. Tempo napredka, ki ga kažejo zadnji koraki najbolj naprednega razvoja, je takšen, da vse več strokovnjakov svoje napovedi o splošni umetni inteligenci pomika iz tridesetih let v pozne dvajsete. Napovedni trg Metaculus je 9. aprila 2026 pri vprašanju o »weakly general AI« kazal trenutno oceno 18. marca 2028.[9] Takšne napovedi seveda niso znanstvene gotovosti. So pa indikator tega, da pomemben del strokovne skupnosti danes verjame v zelo bližnjo prihodnost. Ne zatrjujem, da bomo leta 2028 v obdobju splošne umetne inteligence, ker bi takšna trditev presegla raven, do katere seže pravna analiza. Zatrjujem pa, da je verjetnost tega scenarija dovolj resna, da bi jo regulator moral upoštevati kot možnost, ki si zasluži pripravljenost, in ne kot oddaljen scenarij, za katerega imamo še čas.

Pravila za visoko tvegane umetnointeligenčne sisteme iz Priloge III bodo po trenutnem predlogu začela veljati 2. decembra 2027. Morebiti ravno takrat, ko bomo po nekaterih ocenah že v tehnološkem okolju, v katerem se pojmi, kot so zaposlovanje, kreditna sposobnost in kazenski pregon, kvalitativno razlikujejo od tistih, za katere je bila priloga pisana. Za sisteme iz Priloge I bodo pravila začela veljati osem mesecev kasneje.

Težava ni v tem, da Evropska unija regulira. Težava tudi ni v tem, da regulira slabo, saj so nekateri deli Akta o umetni inteligenci intelektualno pronicljivi in pravno natančni. Težava je v orodjih, s katerimi regulira. V dvajsetem stoletju smo se naučili pisati definicije, pragove, priloge in prehodna obdobja v okolju, v katerem se temeljne predpostavke urejane dejavnosti bistveno ne spremenijo hitreje kot v šestih letih. V dvajsetem stoletju so ta orodja delovala. V tehnološkem okolju leta 2026 pa se temeljne predpostavke spremenijo hitreje, kot zakonodajni postopek zmore zapisati svoj prvi osnutek. V takem okolju prevladujoči izid ni več varnost. Prevladujoči izid postaja institucionalni zamik, ki izhaja iz čakanja na to, da pravila, ki smo jih začeli pisati pred šestimi leti, končno začnejo veljati.

Regulacija, ki zamuja en tehnološki cikel, ni več regulacija.
Postane zgodovinski dokument.

Iz tega položaja obstaja izhod. Ne prek manj regulacije, saj bi takšna rešitev pomenila zaupanje tržni samoomejitvi, za katero je Anthropicov primer redka izjema in ne pravilo. Izhod vodi skozi drugačno regulacijo. Takšno, ki svoja lastna orodja razume kot žive organizme, ki se morajo razvijati skupaj s tehnologijo, ki jo urejajo. Evropski projekt je v zadnjih dveh desetletjih pokazal, da zmore pisati zahtevne, ambiciozne in dolgotrajne pravne okvire. Naslednji korak, na katerem bo moral dokazati svojo prožnost, bo pisanje okvirov, ki se znajo obnoviti sproti, brez čakanja na nov trialog.

Mythos Preview ne predstavlja zgolj tehnološkega mejnika. Predstavlja tudi pravočasno pravno opozorilo. Pravočasno prav zato, ker je prišel v trenutku, ko Evropski parlament glasuje o odlogu pravil, ki bi ta model morala urejati, a jih v veljavo ne morejo spraviti. Če v naslednjih dveh letih Evropska unija svojega regulacijskega pristopa ne preoblikuje, bo Akt o umetni inteligenci v letu 2028 ostal formalno veljaven in vsebinsko nerelevanten. Takega izida si ne želi nihče. Niti regulator niti stroka niti državljani, ki jih akt dejansko varuje.

Ko bomo nekoč gledali nazaj na ta trenutek in iskali, kdaj smo prvič opazili, da tempa več ne držimo, se bomo lahko spomnili aprila 2026. Tedna, ko je eno podjetje na lastno pest naredilo poteze, ki jih regulator ni znal zahtevati. In faksa, ki je tisti teden še vedno tiho brnel v nekem slovenskem ministrskem kabinetu.

Viri in literatura

  1. Anthropic, Claude Mythos Preview — kartica sistema, 7. april 2026. Obsežen dokument s pregledom zmogljivosti, kibernetskih tveganj, usklajenosti z varnostnimi protokoli in razlago odločitve, da model ne bo splošno dostopen. anthropic.com/claude-mythos-preview-system-card
  2. Anthropic, Project Glasswing: Securing critical software for the AI era, 7. april 2026. Uradna objava iniciative z rezultati preizkusov Mythos Preview, seznamom dvanajstih partnerskih organizacij, tremi konkretnimi primeri najdenih ranljivosti (OpenBSD, FFmpeg, Linux jedro) in trditvami o samostojnosti izvedbe. anthropic.com/glasswing
  3. Pravni Rentgen, Ugotovitve analize slovenske zakonodaje, stanje april 2026. Sistematičen deterministični pregled 740 zakonov in več kot 48.000 členov po merilih Teorije razumske regulacije. Deleži problematičnih členov po kategorijah: 50 % skupaj, 42 % birokratska obveznost, 15 % pravna negotovost, 12 % neprijaznost umetni inteligenci. pravnirentgen.si/ugotovitve
  4. Matt MacDermott, Claude Mythos System Card Preview, LessWrong, 7. april 2026. Neodvisna analiza časovnih horizontov na SWE-bench Verified na podlagi razporeditve razvojnih popravkov. Ocena: 93,9 % uspešnosti pri pol-zanesljivem izvajanju ustreza samostojnemu programerskemu horizontu približno 34 ur. Pri Opus 4.6 ustreza približno 6 uram. lesswrong.com
  5. Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci (Akt o umetni inteligenci), UL L, 12. 7. 2024. Zlasti členi 3, 6, 7, 51 do 55, 57, 112 ter Prilogi I in III. eur-lex.europa.eu/eli/reg/2024/1689/oj
  6. Software Improvement Group, A comprehensive EU AI Act Summary (januar 2026). Pregled faznega uveljavljanja akta, vključno z začetkom uporabe obveznosti za splošnonamenske modele od 2. avgusta 2025 in časovnico predloga Digital Omnibus. softwareimprovementgroup.com
  7. PPC Land, EU Parliament committee backs AI Act delay with fixed 2027 deadline, 19. marec 2026. Poročilo o skupnem glasovanju odborov IMCO in LIBE dne 18. marca 2026 (101 za, 9 proti, 8 vzdržanih), referenca skupnega poročila A10-0073/2026. Predlagani datumi 2. december 2027 za Prilogo III in 2. avgust 2028 za Prilogo I. ppc.land
  8. Euronews, European Commission proposes delaying full implementation of AI Act to 2027, 19. november 2025. Poročilo o predstavitvi paketa Digital Omnibus s poudarkom na premiku rokov za visoko tvegane sisteme in uradni obrazložitvi Komisije. euronews.com
  9. Metaculus, When Will Weakly General AI Arrive?, napovedni trg, stanje 9. aprila 2026. Javni napovedni trg s trenutno mediansko oceno 18. marca 2028 za prvo obliko »weakly general AI«. Napoved je živa in se posodablja. metaculus.com/questions/3479
  10. Tech Policy Press, EU’s AI Act Delays Let High-Risk Systems Dodge Oversight, marec 2026. Analiza učinkov neretroaktivnosti po členu 111 akta v povezavi z odlogom: sistemi, dani na trg pred decembrom 2027, obveznosti akta ne bodo zavezovale. techpolicy.press
  11. OneTrust, EU Digital Omnibus Proposes Delay of AI Compliance Deadlines, december 2025. Tehnična analiza predloga Digital Omnibus z osredotočenostjo na člen 6, člen 50(2), člen 53 in Prilogo III. onetrust.com
klemen.ai  ·  Klemen Kraigher Mišič  ·  8. april 2026
Citiranje je dovoljeno z navedbo avtorja in spletno stranjo klemen.ai.