Izbjegni kazne i sredi EU AI Act papire za jedan vikend [2026]
35.000.000 eura. To nije brojka iz naučne fantastike, to je gornja granica kazne koju ćeš platiti ako tvoj AI model skrene s puta ili ako nemaš ispravnu dokumentaciju. Ti misliš da si mali igrač? Inspektore u Briselu to ne zanima. Ako tvoj kod dotiče podatke građana EU, na meti si. Za ovaj vikend, ili ćeš srediti papire, ili ćeš rizikovati bankrot. Miris ustajale kafe i zvuk ventilatora na tvom laptopu bit će ti jedini pratioci, ali bolje to nego sudski poziv. Do nedjelje navečer, tvoj sistem će biti ‘u vinklu’, spreman za reviziju.
Prva dijagnoza: Odredi je li tvoj model ‘visokorizičan’ prije nedjeljnog ručka
Odmah provjeri ulazne tačke svog algoritma i uporedi ih sa listom zabranjenih praksi EU AI Act-a. Ako tvoj sistem vrši biometrijsku identifikaciju ili ocjenjuje kreditnu sposobnost, u ozbiljnom si sosu. Većina developera griješi jer misli da je ‘samo chatbot’ siguran. Nije. Ako taj bot daje savjete o zdravlju ili zapošljavanju, upadaš u kategoriju visokog rizika. Moraš pročešljati dokumentaciju i vidjeti gdje tvoji podaci ‘cure’. Iskoristi ovaj vodič da spriječiš curenje podataka u 3 koraka prije nego što inspektori pokucaju. Osjećaj je kao kad tražiš kratki spoj u razvodnoj kutiji; moraš biti sistematičan i ne smiješ preskakati korake. Jedna pogrešna pretpostavka i cijeli sistem pada na testu usklađenosti. Nemoj se oslanjati na sreću. Testiraj. 
Dokumentacija koja ne laže: Tehnički fajlovi koje inspektori zapravo čitaju
Zapiši svaku arhitekturalnu odluku, svaki skup podataka za obuku i svaku metriku evaluacije u jedan centralni tehnički fajl (Technical Documentation). Inspektori ne žele marketinške brošure; oni žele da vide ‘ispod haube’. Ako koristiš RAG sisteme, moraš dokazati odakle dolaze podaci. Pogledaj kako da ubaciš RAG i daš botu svoje podatke na ispravan način. Gruba realnost je da ćeš provesti sate kucajući tabele o verzijama modela. Prsti će te boljeti, a oči peći od plavog svjetla ekrana, ali to je cijena sigurnosti.
ZAŠTO OVO RADI: Dokumentacija nije samo birokratija; to je digitalni trag tvoje odgovornosti. Prema principima ‘transparency by design’, AI sistemi moraju biti objašnjivi. Ako tvoj model donese odluku, ti moraš biti u stanju da rekonstruišeš logiku iza te odluke. To je kao kod građenja mosta; moraš imati proračune za svaki šaraf kako bi dokazao da se konstrukcija neće srušiti pod opterećenjem.
Anatomija katastrofe: Kako je jedan startup potonuo zbog loše oznake podataka
Prije dvije godine, jedan fintech startup iz Berlina mislio je da može ‘izmuljati’ usklađenost. Imali su sjajan model za procjenu rizika osiguranja, ali su koristili ‘prljave’ podatke. Nisu dokumentovali kako su čistili pristrasnost (bias). Kada je došla revizija, nisu mogli dokazati da njihov model ne diskriminiše na osnovu poštanskog broja. Kazna ih nije samo udarila po džepu; izgubili su licencu za rad u roku od 48 sati. To je ‘Anatomija promašaja’. Ako ne dokumentuješ testiranje poštenja modela (fairness), tvoj trud je uzaludan. Woodworking analogija? To je kao da napraviš kuhinju od sirove bukovine i ne ostaviš mjesta za širenje drveta. Kad dođe vlaga, sve će popucati. Tvoja ‘vlaga’ su EU regulatori. Ne budi taj lik.
Da li moram registrovati svaki AI alat koji koristim u firmi?
Da, svaki alat koji direktno utiče na donošenje odluka ili obradu korisničkih podataka mora biti u tvojoj internoj evidenciji. Ne možeš samo ‘ubaciti’ ChatGPT u workflow bez nadzora. Moraš znati kako da sakriješ privatne podatke na ChatGPT-u prije nego što tvoji zaposlenici počnu lijepiti povjerljive ugovore u promptove. To je tvoja odgovornost kao vlasnika procesa. Zapamti, nepoznavanje zakona ne opravdava kaznu. Ako tvoj tim koristi ‘shadow AI’, ti si taj koji će potpisati ček za kaznu. Prati svaki API poziv. Budi strog. To je jedini način da preživiš 2026. godinu u tech sektoru.
Sigurnosni pojas: Postavljanje sistema za ljudski nadzor (Human-in-the-loop)
Instaliraj obavezne tačke prekida (kill-switches) gdje čovjek mora odobriti odluku AI modela prije njene implementacije. EU AI Act izričito zahtijeva da visokorizični sistemi imaju ljudski nadzor. To nije opcija, to je moranje. Ako tvoj sistem automatski šalje odbijenice za posao, unajmi nekoga da pročešlja te odluke. To je dosadno, zamorno i usporava proces, ali spašava firmu.
WARNING: Nikada ne ostavljaj AI model da radi bez nadzora u produkciji ako obrađuje osjetljive podatke. Softverski ‘glitch’ može dovesti do diskriminacije koja se zakonski tretira kao namjerni prekršaj. Shvati ovo ozbiljno: AI bez nadzora je kao cirkularna pila bez zaštite. Samo je pitanje vremena kada će neko ostati bez prstiju.
Šta ako moj model koristi open-source komponente?
Open-source te ne oslobađa odgovornosti; ti si ‘deployer’ i ti odgovaraš za finalni proizvod. Provjeri licence svakog modela koji skineš sa Hugging Face-a. Ako model ima ugrađenu pristrasnost, ti je nasljeđuješ. Moraš provesti sopstvene testove robusnosti. Kao što bi Ismet iz IT-a rekao: ‘Tuđim čekićem ne kucaš eksere u svoju kuću’. Provjeri alat prije nego što ga prisloniš na materijal. Dokumentuj te testove kao da ti život ovisi o tome, jer tvoj biznis sigurno ovisi.
Kao što je propisano u NEC 2023 za električne instalacije, i ovdje postoji ‘kod’ koji se mora poštovati. EU AI Act 2026 zahtijeva da tvoj sistem bude otporan na greške i pokušaje manipulacije. Ako ne možeš dokazati otpornost, tvoj sistem je nelegalan. Kraj priče. Iskoristi nedjelju popodne da uradiš finalni ‘stress test’. Ako model pukne pod pritiskom, bolje da pukne u tvojoj laboratoriji nego pred komisijom.

![Izbjegni kazne i sredi EU AI Act papire za jedan vikend [2026]](https://aiskola.org/wp-content/uploads/2026/04/Izbjegni-kazne-i-sredi-EU-AI-Act-papire-za-jedan-vikend-2026-1.jpeg)

