Ne rizikuj kaznu: Nova pravila za AI sigurnost u 2026.
20 miliona eura ili 4% tvog godišnjeg prometa. To nije teoretska prijetnja; to je hladna, birokratska oštrica novih AI pravila koja stupaju na snagu 2026. godine. Ako misliš da je tvoj mali chatbot ispod radara, griješiš. Ti si odgovoran za svaki bajt koji tvoj sistem izbaci. Do worda 150, shvatićeš da ti ne treba skupi tim advokata, već sistematičan pristup dokumentaciji i testiranju koji možeš uraditi sam uz pravi alat.
Zašto je tvoj AI model tempirana bomba u 2026.
U 2026. godini, ‘nismo znali’ više ne pije vode. Pravila su jasna: svaki sistem koji obrađuje podatke građana mora imati jasan trag revizije. Osjećaš onaj miris ozona u serverskoj sobi? To je miris hardvera koji radi bez adekvatnog nadzora. Prvo što moraš uraditi je utvrditi u koju kategoriju rizika tvoj alat upada. Većina firmi griješi jer misli da su u ‘niskom riziku’, a onda shvate da njihov alat za analizu kupaca krši osnovna pravila privatnosti. Ne igraj se sa ovim. Zakrpaj rupe odmah.
Šta zapravo traži AI Impact Assessment (bez skupih advokata)
Zaboravi na debele fascikle i pravne zavrzlame. AI Impact Assessment (procjena uticaja) je tvoj štit. To je dokument koji dokazuje da si razmislio o posljedicama prije nego si pustio model u rad. Moras definisati izvore podataka, mjeriti preciznost i, što je najvažnije, imati plan za gašenje ako krene po zlu. Ako vodiš mali biznis, možeš uraditi sam procjenu uticaja bez da baciš hiljade eura na konsultante. Bitno je da je dokumentacija iskrena i tehnički potkovana. 
Da li moj mali biznis stvarno mora imati svu ovu papirologiju?
Da. Kratko i jasno. Bez obzira da li koristiš AI za pisanje mailova ili za predviđanje prodaje, ako sistem donosi odluke o ljudima, podliježeš zakonu.
UPOZORENJE: Ignorisati obavezu dokumentovanja sistema visokog rizika je direktan put u bankrot. Kazne su dizajnirane da budu razorne kako bi se osigurala usklađenost. Jedan pogrešan korak i poverenik za informacije će ti pokucati na vrata sa nalogom koji ne možeš ignorisati.
Anatomija propasti: Kako jedan ‘Prompt Injection’ ruši tvoj kredibilitet
Zamisli ovo: tvoj bot za korisničku podršku odjednom počne psovati kupce ili im nuditi tvoje proizvode za nula eura. To se desilo jer nisi uradio testiranje na prodore. U workshop svijetu to zovemo ‘popuštanje vara’. Ako tvoj prompt nije osiguran, hakeri će ga iskoristiti. Moras aktivno odbraniti svoj bot od injection napada. To nije opcija, to je higijena. Ja sam proveo 14 sati pokušavajući srušiti sopstveni model dok nisam shvatio da je ulazna validacija bila loše konfigurisana. Osjećaj kada shvatiš da ti je sistem ranjiv je kao kad vidiš da ti krov prokišnjava usred oluje. Ne čekaj oluju.
Zašto tvoj model ‘laže’ i kako to dokazati inspektoru
Modeli haluciniraju. To znamo. Ali u 2026., ako tvoj model ‘laže’ i to ošteti klijenta, ti snosiš račun. Moraš uvesti mjerljive metrike. Ne pitaj ga ‘jesi li siguran?’. Koristi alate da provjeriš kvalitet odgovora matematički. Inspektor neće tražiti tvoje obećanje, tražiće logove. Ako ne znaš ko je kriv kad AI pogriješi, odgovor je uvijek – vlasnik procesa. To si ti.
Zašto se koristi PVA ljepilo za tvoje podatke (Metafora integriteta)
U stolarstvu, PVA ljepilo prodire u vlakna drveta i stvara vezu jaču od samog drveta. Tvoj sistem upravljanja podacima mora raditi isto. Podaci ne smiju biti samo ‘ubačeni’ u bazu; oni moraju biti klasifikovani i etički prikupljeni. Ako koristiš ‘ukradene’ podatke za treniranje, tvoj model je pravno ništavan. Nauči kako etično prikupiti bazu. Bez jakog vezivnog tkiva, tvoja AI struktura će se raspasti pod pritiskom prvog audita.
The Anatomy of a Screw-Up: Ignorisanje pristrasnosti (Bias)
Najveći promašaj koji sam vidio je firma koja je koristila AI za zapošljavanje. Model je automatski odbijao kandidate koji su živjeli u određenom dijelu grada jer su historijski podaci bili loši. To je školski primjer ‘biassa’ koji vodi direktno do suda. Ako ne znaš kako da testiraš fairness modela, bolje ga ne puštaj u rad. Nakon šest mjeseci, tvoj sistem će postati toliko toksičan da ćeš morati obrisati cijelu bazu. To je 40% gubitka efikasnosti zbog lenjosti u početnoj fazi. Don't skip this.
Code Check: Standardi za 2026.
Prema novim smjernicama, svaki AI sistem u prodaji mora imati ‘Human-in-the-loop’ opciju. To znači da čovjek mora moći intervenisati u svakom momentu. Ako tvoj sistem donosi autonomne odluke bez prekidača za hitne slučajeve, kršiš osnovne sigurnosne protokole. Provjeri specifikacije. Instaliraj lokalni AI na svoj PC za testiranje privatnih podataka prije nego ih baciš na cloud. Privatnost na prvom mjestu nije samo krilatica, to je tehnički zahtjev.
Zaključak: Tvoj plan akcije za večeras
Ne treba ti panika, treba ti ključ 13. Sutra ujutro provjeri gdje držiš logove. Ako ih nemaš, počni ih snimati. Provjeri da li tvoj AI Impact Assessment pokriva sve tačke zakona. Ako ne znaš odakle početi, popuni dokumentaciju sam prateći provjerene šablone. AI sigurnost u 2026. nije stvar inspiracije, već discipline. Stegni vijke dok još možeš.

