Izbjegni kazne i sredi EU AI Act papire za jedan vikend [2026]
35 miliona eura ili 7% tvog godišnjeg prometa. To je brojka koja će ti izbiti zrak iz pluća ako te inspekcija uhvati nespremnog s tvojim AI modelima u 2026. godini. Ti moraš shvatiti da Brisel ne zanima jesi li ‘mali igrač’ ili tek istražuješ tržište; ako tvoj algoritam donosi odluke o ljudima, na nišanu si. Ovaj vodič ti daje tačan plan kako da kroz jedan radni vikend pročešljaš svoje sisteme, popuniš dokumentaciju i postaviš barijere koje će inspektore natjerati da produže dalje. Za 48 sati rada uštedjet ćeš godine sudskih procesa i hiljade KM pravnih savjeta koje ionako ne razumiješ.
Zašto Word dokument nije dokaz: Mit o ‘Imamo politiku privatnosti’
Zaboravi na generičke tekstove koje si kopirao s interneta. EU AI Act ne traži obećanja, on traži sirove podatke o tvom modelu. Svaki sistem koji koristiš mora imati svoj ‘rodni list’ – tehnički dosije koji opisuje kako tvoj AI ‘razmišlja’. Ako koristiš chatbotove, moraš odmah provjeriti kako spriječiti curenje podataka, jer to je prvi korak koji inspektori gledaju. Spremi se za AI zakon i ne dozvoli da tvoji interni podaci postanu javno dobro zbog jedne loše podešene API skripte. Osjećaj papira pod prstima dok slažeš registrator možda je staromodan, ali to je tvoj pancir. Zvuk tastature u gluho doba noći dok loguješ datasete je tvoja jedina odbrana.
UPOZORENJE: Testiranje modela na ‘živim’ podacima bez anonimizacije je direktno kršenje Člana 10. EU AI Acta. 120v struja te može ubiti, ali pravni udar zbog neovlaštene obrade biometrijskih podataka ubit će tvoju firmu trajno. Testiraj samo u izolovanom sandbox okruženju.
Klasifikacija rizika: Je li tvoj AI igračka ili ‘visoki rizik’?
Ne troši vrijeme na dokumentovanje svega ako ne moraš. Prva subota ujutro rezervisana je za trijažu. Većina alata za generisanje slika ili pisanje mailova spada u niski rizik, ali ako tvoj AI bira kandidate za posao ili ocjenjuje kreditnu sposobnost, u ozbiljnom si problemu. Tu moraš uvesti ljudski nadzor i to ne samo na papiru. Treba ti stvarna osoba koja može ‘ugasiti’ mašinu kad krene po zlu. Sluzava tekstura loše očišćenih podataka u bazi direktno korelira sa lošim odlukama modela. Ako osjetiš miris paljevine u serverskoj sobi, to je hardver; ako osjetiš paniku u pravnoj službi, to je nedostatak logova.

Anatomija propusta: Zašto tvoj model ‘halucinira’ kazne
Imao sam priliku vidjeti sistem koji je radio savršeno šest mjeseci, a onda je odjednom počeo diskriminirati korisnike na osnovu poštanskog broja. Razlog? ‘Data drift’ koji niko nije pratio. Ako ne testiraš fairness modela svaka tri mjeseca, tvoj AI će postati pristrasan. To se dešava polako, kao rđa na starom autu. Prvo ne primijetiš ništa, a onda ti cijeli prag otpadne na autoputu. U svijetu AI-ja, taj autoput je tvoja produkcija, a inspektor je onaj koji te zaustavlja zbog neispravnih kočnica. Podesi sistem tako da te upozori čim preciznost padne za 2%. Nemoj čekati da ti korisnik javi da ga je bot izvrijeđao.
Zašto ovo radi: Fizika algoritamske odgovornosti
U srži EU AI Acta nije želja da se zaustavi inovacija, već fizika vjerovatnoće. AI modeli su probabilistički, što znači da nikada nisu 100% sigurni. Kada spojiš tu nesigurnost sa pravnim sistemom koji traži 100% odgovornost, dobiješ eksplozivnu smjesu. Dokumentacija služi kao ‘amortizer’ koji apsorbuje udarac kada model neizbježno pogriješi. Objašnjavanje procesa donošenja odluka (Explainability) je kao provjera zategnutosti šarafa na konstrukciji – dosadno je, bole te leđa od saginjanja nad kodom, ali bez toga se cijeli most ruši pod prvim opterećenjem. Koristi alate kao što su SHAP ili LIME da ‘osvijetliš’ unutrašnjost crne kutije tvog modela.
Nedjelja popodne: Finalno ‘peglanje’ i sigurnosni backup
Zadnji sati vikenda su za provjeru integriteta. Ako si koristio eksterne API-je, jesi li provjerio njihovu usklađenost? Ne možeš se vaditi na to da je ‘OpenAI kriv’. Ti si taj koji je pustio taj kod u promet. Svaki spoj tvojih skripti mora biti čvrst kao zavaren čelik. Labavi spojevi u dokumentaciji su mjesta gdje advokati suprotne strane guraju polugu. Zakucaj svaki proces, zalijepi logove za svaki deployment i osiguraj da svaki član tima zna gdje stoji ‘Emergency Stop’ dugme. Na kraju dana, tvoj cilj nije samo proći inspekciju, nego napraviti sistem koji je robustan, etičan i, iznad svega, tvoj. Ne kupuj gotova rješenja koja obećavaju ‘klik-i-gotovo’ usklađenost. To je laž. Prava sigurnost se gradi rukama, red po red koda.

![Izbjegni kazne i sredi EU AI Act papire za jedan vikend [2026]](https://aiskola.org/wp-content/uploads/2026/04/Izbjegni-kazne-i-sredi-EU-AI-Act-papire-za-jedan-vikend-2026.jpeg)