Detektor zla
Kako je v enem tednu maja 2026 AI varnost postala fevdalna listina.
§ 01 — Prvi prizorSodnica v Oaklandu
Petek, 1. maja 2026. Federalna sodišča v Oaklandu, dvorana na drugem nadstropju. Tretji dan pričevanja. Tožnik in priča je ista oseba, Elon Musk. Tožena stranka, Sam Altman in OpenAI. Predmet spora, kdo je izdal koga ob ustanovitvi podjetja, ki je leta 2016 obljubilo razviti umetno inteligenco "v dobro vsega človeštva". Sodnica posluša. Pravniki listajo. Musk popravlja izjavo iz sredine.
Štirideset minut čez dvanajsto se zaslišanje konča. Musk gre na hodnik in pet minut piše po telefonu. Naslednji teden bo svet izvedel, da je v istih dneh, ko je razlagal, kako ga je Altman izdal v imenu denarja, sklepal posel z drugim podjetjem. Tem podjetjem, ki je bilo ustanovljeno prav zato, ker so njegovi ustanovitelji, bivši zaposleni pri OpenAI, šli stran s prepričanjem, da je Altman izdal misijo.
Drugo podjetje se imenuje Anthropic. Človek, s katerim sklepa posel, je oseba, ki je februarja zapisala, da Anthropic "sovraži zahodno civilizacijo". Pred tem je v eseju omenjal, da je Anthropic "obsojen postati nasprotje svojega imena". Misanthropic. Sovražnik človeštva.[1]
V sredo, 6. maja, podpis. SpaceX da Anthropicu dostop do vse računske moči podatkovnega centra Colossus 1 v Memphisu. 300 megavatov v naslednjem mesecu. Vredno omeniti, ker je Colossus podatkovni center xAI, torej Muskovega lastnega AI laboratorija, neposrednega konkurenta Claudu.[2]
V isti pogodbi je Anthropic izrazil interes za sodelovanje pri orbitalnih podatkovnih centrih s skupno kapaciteto več gigavatov. SpaceX je pri ameriški FCC vložil dokumentacijo za milijon satelitov, ki bi gradili AI infrastrukturo v vesolju.[2]
Detektivska zgodba se začne z vprašanjem, ki ne sodi skupaj. Zakaj bi nekdo oborožil sovražnika?
§ 02 — ČasovnicaŠtirje datumi
Posel se ni zgodil v vakuumu. Štirje datumi kažejo, kaj je v ozadju.
Od retoričnega napada do vazalske prisege v štirih mesecih
Musk razglasi Anthropic za sovražnika zahodne civilizacije
Serija javnih izpadov na X-u. Misanthropic, najbolj hipokritsko podjetje, obsojeno postati nasprotje svojega imena. Klasično Muskovo ognjeno blato.
X · javna polemikaPentagon razglasi Anthropic za varnostno tveganje
Anthropic se znajde na seznamu "tveganj za dobavno verigo". Posle z ameriško vlado izgubi. Razlog uradno ni objavljen, a v ozadju so šepetanja o sporu z Belo hišo glede uporabe AI v vojaške namene.
Pentagon · supply chainClaude pod obremenitvijo, kakovost Opusa 4.7 občutno upade
Anthropic prizna "neizogibno obremenitev infrastrukture". Skupnost na Redditu in tehničnih forumih poroča o tihem zniževanju kakovosti modela. Opus 4.7 v določenih dneh deluje kot Sonnet ali Haiku.
Tehnična obremenitevPakt s SpaceXom — 300 MW takoj, gigavati v vesolju
Anthropic dobi dostop do Colossus 1 v Memphisu. Dogovor predvideva sodelovanje pri orbitalnih centrih s skupno kapaciteto več gigavatov. Pridržek: "Pridržujemo si pravico, da odvzamemo računsko moč, če njihov AI škoduje človeštvu."
Pakt · stikaloViri: Engadget, CNBC, Anthropic.[2]
Štirih datumov ne morete brati po vrsti, ne da bi opazili obliko. Anthropic je v začetku leta 2026 doživel istočasno obremenitev na dveh frontah. Politični napad iz Pentagona. Tehnični kolaps zaradi povpraševanja. Konec aprila sta se oba pritiska sekala. Maja pride odrešitev iz vira, ki je doslej napadal najgloblje.
Detektivska logika je drugačna. Vprašanje, na katero se velja osredotočiti, se glasi: kaj točno je oseba s svojo nenadno prijaznostjo dobila, kaj si je zagotovila za naprej in koga je s tem postavila v podrejen položaj, ki ga sicer po regularni poti ne bi mogla doseči.
§ 03 — PogodbaPogodba kot fevdalna listina
Pogodbo je vredno prebrati natančno, ker se ne piše kot komercialni dogovor. Trije pomenljivi elementi.
Prvi element. 300 megavatov v enem mesecu. Za umestitev, to je elektrika, ki jo porabi približno 200.000 slovenskih gospodinjstev. Za eno samo podjetje. Tempo, ki ga noben gradbeni cikel zemeljskih elektrarn ne zmore.
Drugi element. Multi-gigavatna kapaciteta v vesolju. Anthropic in SpaceX se "zanimata za sodelovanje" pri razvoju orbitalne AI infrastrukture. SpaceX že vlaga papirje za milijon satelitov pri ameriškem regulatorju. Postavitev v vesolju razveže zadnjo zemeljsko vez, ki je doslej omejevala AI razvoj. Soglasja sosedov, lokalna birokracija, geografija elektrike, hladilna voda. Vse to v orbiti odpade.
Tretji element je najpomembnejši. Muskova izjava ob podpisu:
Pridržujemo si pravico, da odvzamemo računsko moč, če se njihov AI ukvarja z dejanji, ki škodujejo človeštvu.
Elon Musk, X, 6. maj 2026[2]Tako oblikovana določba ne deluje kot komercialna klavzula. V ozadju leži vazalska prisega v sodobnem jeziku.
Klasične komercialne pogodbe poznajo pogodbene kazni, odpoved in arbitražo, a tu nič od tega ne deluje, ker se v ozadju skriva struktura, kjer si gospodar pridržuje, da kadarkoli, na svojo lastno presojo in brez kakršnekoli obrazložitve, odvzame fevd, čigar edini pogoj je dobronamernost vazala, ki jo presoja prav ta isti gospodar.
Fevdalna listina v čisti obliki. V industrijski zgodovini bi bil najbližji primer monopolist Standard Oil iz 1900-ih, ki je manjšim železniškim družbam pogojeval ceno prevoza s tem, da prevažajo samo njegovo nafto. A celo Rockefeller ni imel klavzule "če mi ne ugaja, ti ugasnem podjetje".
§ 04 — MotiviOsumljenci
Vsaka kriminalka ima vrsto osumljencev. Tu jih je pet.
-
Anthropic — kisik
Brez teh 300 MW v maju bi Claude začel pokati pod obremenitvijo. Z njimi lahko obrani trg in obenem močno razširi storitve. Nastani pa se pod streho človeka, ki ga je še aprila javno klical sovražnika človeštva.
-
Musk — vajeti
Posel mu daje pravico, ki je še nobeno sodišče ne bi izreklo, ker ne glede na to, kako interpretira "škodo človeštvu", lahko ugasne največjega ameriškega konkurenta xAI/Groka kar prek tehničnega stikala. Tako podrobnega vpogleda v poslovanje Anthropica nima nihče zunaj njega samega. Ne glede na šifriranje gostitelj infrastrukture vidi vsaj prometne kazalnike, kdo se na model obrača, kako pogosto, s kakšnimi vzorci, in iz tega se da izpeljati skoraj vse o stranki, njenih produktih in njenih raziskovalnih usmeritvah.
-
Pentagon — posrednik
Anthropic, ki je marca dobil oznako varnostnega tveganja, je zdaj posredno pod nadzorom človeka, ki je bil leto in pol najbližji administraciji. Pentagon ne potrebuje izrecne preklicane oznake. Tveganje je zdaj v rokah, ki jih lahko nadzira.
-
Investitorji — zgodba
Ocena 900 milijard ameriških dolarjev je bila pred posli z Amazonom, Googlom in zdaj SpaceXom v zraku. Z dostopom do energetske kapacitete, ki konkurence nima, postane verjetna. V finančnem svetu zgodba šteje več od številk.[1]
-
xAI — ekosistem
Grok Clauda v kakovosti ne premaga, a igra drugačno igro, v kateri Claude zdaj fizično teče po xAI infrastrukturi. Vsak Claudov izpit, vsaka njegova nadgradnja, vsaka njegova porazdelitev se zgodi v Memphisu. xAI s tem zgradi monopolno pozicijo na trgu infrastrukture, ki jo modeli potrebujejo, kar je mnogo močnejša pozicija od konkurence v kakovosti modelov.
Pet osumljencev, vsi z motivom, vsi z dostopom, vsi z izgovorom. V kriminalkah se temu reče popoln zločin.
§ 05 — StavekDetektor zla
Najpomembnejši stavek tega tedna stoji v Muskovi objavi na X-u, ne v pogodbi:
Nikomur ni vključil mojega detektorja zla. Dokler bodo izvajali kritično samopreverjanje, bo Claude verjetno dober.
Elon Musk, X, 6. maj 2026[1]Stavek je strukturna anomalija. Vredno ga je razbrati besedo po besedi.
"Detektor zla" je naprava ene osebe. Brez odbora, brez metodologije, brez protitestov. En človek s tipalom razlikuje, kaj je dobro in kaj zlo. To bi bilo zabavno, če ne bi šlo za odločitev, ki vpliva na podjetje, vredno 900 milijard.
"Kritično samopreverjanje" je formulacija, ki ima v zgodovini eno samo prednico. Inkvizitorska tradicija. Sumljivec mora vsak dan znova izkazati, da je čist. Pravičnost se v tej tradiciji ne podeljuje vnaprej, in sodnik šele bo presodil, ali izkaz dosega potrebno raven.
"Verjetno bo dober" je najpomenljivejša formulacija, ker priznava, da gre za napoved s pridržkom, ki lahko vsak trenutek pade. Gospodar v stavku ne potrjuje, da je Anthropic dober. Stavek izrazi le odloženo presojo: "Verjetno bo, dokler ne bom presodil drugače."
Vsak od teh elementov je sam zase morda moč prebrati kot retorični okras, a v medsebojni kombinaciji elementi prenehajo biti okras in postavijo eno samo osebo v vlogo arbitra moralne primernosti celotne AI industrije, brez katerekoli druge instance, ki bi to vlogo lahko preverjala, omejevala ali ji nasprotovala.
Tu je vprašanje, ki ga ta teden nihče javno ni zastavil. Kdo presoja Muska?
§ 06 — StackNihče ne presoja inkvizitorja
Stojim ob tabli in rišem Muskove pristojnosti maja 2026.
Sedem nivojev v eni roki
Arbiter dobrega in zla
Detektor zla. Pravica do odvzema računske moči konkurentu.
nad seboj
Vlada in podatki
DOGE in nasledniki. Dostop do državnih sistemov ZDA.
vladne zbirke
Vmesnik z možgani
Neuralink. Možganski implanti za neposredno povezavo.
klinična faza
Telo
Optimus. Humanoidni roboti za delo, tovarne, gospodinjstva.
od 2026 naprej
Gibanje in senzorji
Tesla FSD. Največji vozeči senzorski roj na svetu.
zajem v živo
Signal in izstrelitve
SpaceX in Starlink. Globalna povezljivost, dostava v orbito.
FCC: do 1 milijon
Računska moč in model
Colossus 1 (xAI), grad konkurenta v lastni hiši. Lastni model: Grok.
multi-GW orbita
Zgodovinski primer, ki bi se temu približal, ne obstaja. Standard Oil je nadzoroval rafinacijo, transport in prodajo nafte v ZDA, a ni nadzoroval, kaj ljudje s to nafto delajo, in ni mu mogel reči: "Če vozite avtomobil v napačno smer, vam zaprem dovod." Pri Muskovi listini z Anthropicom je ta logika vgrajena v samo strukturo razmerja, kjer vir energije pogojuje moralno vedenje uporabnika in kjer presoja vedenja sodi v roke ene same osebe.
Nad to konstrukcijo ni strukture, ki bi jo presojala.
Sodišča so počasna. Oakland je dokazal, da znajo razsoditi spore med ustanovitelji izpred desetih let. Ne znajo razsoditi sporov o infrastrukturi celotne civilizacije v realnem času.
Antitrust v ZDA bi se moral odzvati. Maja 2026 nima primera, kjer en človek vzporedno upravlja sedem nivojev AI tehnološkega sklada. FTC je v zadnjih dveh letih izgubil dva odločilna spora pri Big Techu, oba zaradi pomanjkanja kadrov in počasnih sodišč. Strukturno omejen.
EU AI Akt obravnava modele in njihove namene uporabe. Infrastruktura ostaja zunaj njegovega okvira. To je vrzel, ki je v Bruslju leta 2023 nihče ni predvidel, ker tedaj tudi nihče ni predvideval, da bo AI varnost na koncu odvisna od posameznika z osebnim detektorjem zla in lastno presojo, kaj koristi človeštvu.
Slovenska pravna tradicija pri tem ohranja možnost, da pove kaj smiselnega. Pravo zna obravnavati vire moči, in viri moči so tu energija, orbita, signal in vmesnik z možgani. To bi lahko bila tema slovenske pravne fakultete naslednje leto. Pa ne bo.
§ 07 — HitrostPospešek
Vsa polemika zadnjih let, kdaj pride splošna umetna inteligenca, je izhajala iz ene predpostavke. Računska moč in energija sta omejeni. Razvoj je počasen, ker so podatkovni centri počasni.
Ta predpostavka je 6. maja 2026 padla.
Sam Altman je leta 2024 omenjal številko 7 trilijonov ameriških dolarjev za potrebno čipovsko in energetsko infrastrukturo, številka, ki ji je tedaj večina ekonomistov odkrito vihala obrvi in ki je v javnih razpravah služila kot prikaz Altmanove ekscentričnosti.[3] Dve leti pozneje kombinacija posel Anthropic-Amazon (25 milijard), Anthropic-Google (200 milijard za čipe), Anthropic-SpaceX (več gigavatov) ter podobnih premikov pri OpenAI in xAI kaže, da je bila Altmanova ocena strukturna napoved, ki so jo trgi zdaj začeli uresničevati po lastnem ritmu, čeprav je tedaj zvenela kot ekscentričnost.
Geoffrey Hinton je leta 2024 ocenil, da pride splošna umetna inteligenca v 5 do 20 letih.[4] Dario Amodei je v eseju Machines of Loving Grace omenjal "močno UI" do leta 2026 ali 2027.[5] Z računsko močjo, ki se sprošča v takem tempu, postaja zgornji rob teh napovedi vse manj relevanten. Spodnji rob postaja realističen.
Hipoteza, ki jo postavljam zdaj. Anthropic je doslej moral upravljati infrastrukturo kot omejen vir, zato so njegovi inženirji v zadnjih mesecih veliko časa porabili za optimizacijo in ne za razvoj nove generacije modelov. Z 300 MW dodatne kapacitete in obetom orbitalnih gigavatov se proporci obrnejo. Razvoj postane prioriteta, optimizacija postane manj nujna. To pomeni, da bom v naslednjih dveh do treh mesecih, torej nekje v juliju 2026, pričakoval pomembno objavo, bodisi v obliki Opusa 5, bodisi velikega skoka v zmožnostih obstoječega Opusa 4.7, bodisi povsem novega tipa modela, ki bo izkoristil sproščeno računsko moč. Pravilo velja: kdor dobi računsko moč, ima na voljo sezono, da iz nje izvleče največ.
Logičen paradoks tega pospeška. Če AGI res pride hitreje, bo prišel prek infrastrukture enega človeka. Detektor zla ima s tem širši pomen, kot kaže prvi vtis. Odloča o tem, katera splošna umetna inteligenca bo prva prešla ozko grlo, ki ga sam nadzira.
§ 08 — OzadjeStranske sledi
Nekaj stvari, ki so v tem tednu ostale v ozadju, a so vredne pozornosti.
Anthropicov Sklad za dolgoročno korist (uradno Long-Term Benefit Trust). Pravna struktura, ustanovljena prav zato, da bi preprečila, da bi se Anthropic znašel pod nadzorom enega zunanjega akterja. Sklad je tih. Brez izjave, brez stališča. Tišina je pomenljiva.
Dario Amodei. Ni javno komentiral pogodbe razen v formalnem sporočilu Anthropica. Človek, ki je leta 2024 napisal Machines of Loving Grace o tem, kako bo AI dvignil človeštvo, sklepa pakt s človekom, ki je sam Amodei javno označil za nasprotnika njegove misije. Refleksije iz prve roke ni. Tudi to je pomenljivo.
Kitajska. AI razvojne pisarne v Pekingu od leta 2024 sistematično spremljajo ameriško združevanje moči in iz njega izpeljujejo lastne odločitve. Junija ali julija 2026 lahko pričakujemo nov val njihovih deklaracij ali združevanj. Prvi se bo verjetno odzval Alibaba ali kaj v njegovi orbiti.
Promet v Memphis. Ko slovenski uporabnik pošlje Claudu pravno mnenje, vprašanje o GDPR, osnutek pogodbe, vse to fizično potuje v Colossus 1 v Memphisu in se bo v naslednjih letih premestilo v orbito. Anthropic šifrira vsebino. Šifriranje pa ne skrije prometnih podatkov, časa, frekvence, virov. Iz teh kazalnikov se da izpeljati skoraj vse, kar bi želel vedeti gostitelj infrastrukture. Gre za tehnično dejstvo, ki s teorijo zarote nima nobene zveze.
§ 09 — ZaključekNerešena zadeva
Vsaka kriminalka mora imeti zaključno scenografijo. Tu je nimam.
EU AI Akt govori o modelih, infrastruktura ostaja v vrzeli. Ameriški antitrust je strukturno preobremenjen. Sodišča so počasna. Pentagon je nasprotujoč. Mednarodne organizacije nimajo ne mandata ne tehnične kapacitete.
Pravo zaostaja. To je fraza, ki se v zadnjih letih ponavlja. Maja 2026 stavek opisuje dejansko stanje, v katerem en človek z detektorjem zla nadzira največjo strukturno spremembo v zgodovini tehnologije, in nobena institucija, ne ameriška, ne evropska, ne mednarodna, nima ne mandata, ne hitrosti, ne kadrov, da bi se na to spremembo odzvala v razumnem roku, dokler se ne bodo razmerja že utrdila in postala normalna.
Slovenska perspektiva. Pravne fakultete bi morale to obravnavati kot temeljno vprašanje naslednjih dvajsetih let. Pa ga obravnavajo kot zanimivost za en seminar. Za to smo si izbrali sami in krivde drugod ne velja iskati.
Pa je še ne pišemo dovolj resno.
§ 10 — OsebnoEpilog
Tu pa moram preklopiti iz tona kronista v ton uporabnika.
Sem zadovoljen. To je iskrena reakcija. V zadnjem tednu je Opus 4.7, ki ga uporabljam vsak dan za kodiranje, prevode in pisanje, postal občutno slabši, in dolgo sem si prigovarjal, da gre samo za mojo zaznavo. Ni bila samo moja zaznava. Skupnost na Redditu in v tehničnih forumih je opazila isto, in vse kaže, da je Anthropic zaradi obremenitve začel skrivaj zniževati kakovost modelov, tako da je Opus 4.7 v določenih dneh zvenel kot Sonnet, včasih celo kot Haiku. To je za uporabnika, ki dela na resnih projektih, problematično. Model služi kot partner v razmišljanju. Pomožno orodje bi bilo premalo. Ko partner postane neumen, se vse skupaj zlomi.
Z odpravo strogega omejevanja in odprtim dostopom do Colossus 1 ta težava predvidoma izgine. Anthropic ne bo več prisiljen v tiha zniževanja kakovosti.
Hipoteza, ki sem jo zapisal zgoraj, drži tudi za moj pogled. Anthropic je prejel kisik in z njim sezono za odločen skok. Pričakujem, da se bo to videlo v juliju 2026. Bodisi v obliki nove generacije modela, bodisi kot velika nadgradnja obstoječe linije, bodisi kot Claude Code 2 z drugačnimi sposobnostmi.
A to navdušenje uporabnika ne odpravi resnobe analize. Anthropic je rešen. AI varnost kot strukturna ideja je v tem tednu izgubila institucionalni temelj. Oba stavka držita hkrati. To je kontradikcija, s katero bo industrija živela naslednje leto in tudi naprej.
Do julija sem znaten optimist glede produkta. Glede strukture nisem.
Viri in literatura
- Sheetal Bansal, Anthropic, SpaceX announce compute deal that includes space development, CNBC, 6. maj 2026. cnbc.com
- Karissa Bell, Anthropic is doubling Claude Code rate limits after deal with SpaceX, Engadget, 6. maj 2026. engadget.com
- Sam Altman, javni pogovori z investitorji o globalni AI infrastrukturi, februar 2024. Reuters, Wall Street Journal poročanja.
- Geoffrey Hinton, intervjuji 2024 (BBC, Guardian, Time): napoved AGI v razponu 5 do 20 let.
- Dario Amodei, Machines of Loving Grace, oktober 2024. darioamodei.com
© Klemen Kraigher Mišič · klemen.ai