Novi AI zakoni 2026 i pravila za tvoj softver

Kazna od 35 miliona eura ili 7% tvog ukupnog godišnjeg prometa. To nije teoretska prijetnja iz nekog naučno-fantastičnog filma, to je realnost AI Akta koji u punoj snazi stupa na scenu 2026. godine. Ako misliš da je tvoj mali SaaS ili lokalna skripta za automatizaciju nebitna regulatorima, varaš se. Inspektori ne kucaju na vrata sa osmijehom; oni dolaze sa digitalnim forenzičarima i zahtjevom za uvid u tvoj ‘tehnički fajl’. Ovaj vodič ti daje znanje koje košta hiljade eura kod advokata, pod uslovom da znaš kako se koristi terminal i šta znači transparentnost koda bez prodavanja magle.

Arhitektura tvog koda pod lupom: Šta inspektori traže 2026.

Prva stvar koju moraš uraditi je identifikacija rizika. As of 2026, tvoj softver više nije samo ‘alat’, on je ili ‘nizak rizik’ ili ‘visok rizik’. Ako tvoj algoritam donosi odluke o zapošljavanju, kreditima ili medicinskoj dijagnostici, upao si u kategoriju visokog rizika. Tu nema labavo. Moraš imati ‘Human-in-the-loop’ (čovjek u petlji) sistem. To znači da tvoj AI ne smije samostalno donositi finalne odluke. Miris ozona u serverskoj sobi i zujanje ventilatora dok tvoj model vrti podatke neće te spasiti ako nemaš logove koji dokazuju da je čovjek pritisnuo ‘DA’.

Detailed close-up of AI legal documents and hardware on a maker's table

Većina tutorijala na internetu će ti reći da je dovoljno imati ‘Privacy Policy’. To je laž. To je obična šminka koja će se oguliti čim prvi revizor pokrene tvoj API. Ako koristiš LLM wrapper, ti nasljeđuješ rizike baznog modela, ali dodaješ sloj netransparentnosti koji je magnet za kazne. Moraš imati dokumentovan svaki ‘weight’ i svaki ‘bias’ koji si ručno podešavao.

Da li moj mali softver mora poštovati AI Act?

Da, ako tvoj softver komunicira sa građanima EU ili koristi njihove podatke. Granice više ne postoje u digitalnom prostoru. Čak i ako tvoj server stoji u podrumu u Sarajevu, a korisnik je iz Minhena, podliježeš pravilima. Ne kockaj se sa ovim. Jedan pogrešan ‘prompt’ koji generiše diskriminaciju može te koštati firme. Zatvori tu rupu odmah.

UPOZORENJE: Nikada ne ostavljaj ‘self-learning’ modele bez nadzora na produkciji. AI koji samostalno mijenja svoje parametre bez ljudske validacije može uzrokovati katastrofalne greške u bazi podataka koje su pravno neodbranljive. Šok od sudske presude je gori od 220V u mokroj radionici.

Anatomija promašaja: Zašto ‘Black Box’ vodi u propast

Opisaću ti scenario koji će ti se desiti ako preskočiš dokumentaciju. Zamisli da tvoj AI odbije klijenta za osiguranje. Klijent podnese žalbu. Regulator traži obrazloženje. Ti kažeš: ‘Pa, neuronska mreža je tako odlučila’. To je tvoj kraj. Bez XAI (Explainable AI) protokola, tvoj softver je nelegalan. Moraš biti u stanju da izvučeš log koji kaže: ‘Odluka je donesena zbog parametra X u kombinaciji sa Y’. Ako to nemaš, tvoj kod je smeće u očima zakona. Ja sam proveo 14 sati pokušavajući da rekonstruišem odluku jednog starog modela i na kraju sam morao sve obrisati jer nije bilo traga. Nemoj biti ja. Slather (namaži) svoj kod komentarima i logovima kao da ti život zavisi od toga. Jer biznis sigurno zavisi.

Zašto ti treba Compliance Log (a ne samo Git)

Mnogi misle da je Git history dovoljan. Nije. Compliance Log je statični dokument koji prati verziju modela, skup podataka za trening i rezultate testiranja pristrasnosti. Testiraj svoj model na pristrasnost odmah. Ako tvoj model favorizuje muškarce iznad 40 godina jer su podaci bili ‘prljavi’, ti si odgovoran. Iskopaj te podatke, očisti gunk (smeće) iz baze i dokumentuj proces. Koristi Python skripte da automatizuješ izvještaje, ali ih ti potpiši. Ručno.

Šta ako koristim open-source modele poput Llama 3?

Korištenje open-source modela ti daje veću kontrolu, ali i veću odgovornost. Ti si tada ‘provider’ AI sistema. Moraš osigurati da je model usklađen sa standardima autorskih prava. Provjeri pravila za slike i podatke koje si koristio za finetuning. Ako si ‘jammed’ (zaglavio) tuđe podatke bez dozvole, AI Act će te samljeti brže nego što tvoj GPU može izračunati loss funkciju.

Fiziologija rizika: Energija i etika

Ono što početnici ignorišu je ‘clutch’ (kvačilo) na njihovom razvojnom procesu. Ne vrti model na 100% snage ako to nije neophodno. Smanji potrošnju struje i optimizuj kod. Ekološki otisak AI-a će takođe biti dio regulative u budućnosti. Napravi plan sada. Isključi nepotrebne instance. Svaki nepotrebni watt je trag koji regulatori prate. Budi pametan, budi štedljiv, budi legalan.

Zašto se koristi XAI (Explainable AI) u 2026.

XAI nije samo trend, to je hemija tvog softvera. Baš kao što PVA ljepilo prodire u vlakna drveta da stvori vezu jaču od samog drveta, tako XAI prodire u slojeve tvog modela da stvori povjerenje kod korisnika i države. Bez toga, tvoj sistem je samo krhka konstrukcija koja će puknuti pod pritiskom prvog pravnog spora. Ja sam vidio firme kako propadaju jer nisu mogle objasniti jedan jedini ‘false positive’ rezultat. Nemoj dozvoliti da tvoj rad od 2 godine postane hrpa beskorisnog koda zbog lijenosti da implementiraš SHAP ili LIME biblioteke. Instaliraj to odmah. Hrvi se sa dokumentacijom dok je ne ukrotiš. Sretno u workshopu, trebat će ti više od puke sreće.

Slični tekstovi

One Comment

  1. Ovaj post je dobar podsjetnik koliko je compliance sa AI zakonima zapravo složen i koliko se kompanije mogu naći u problemima ako ne prate sve te detalje. Posebno mi je bilo interesantno kada se spominje dokumentovanje svakog ‘weight’ i ‘bias’ – to je često zanemaren segment u malim firmama koje se ne bave ozbiljnim AI rješenjima. Ja sam lično imao slučaj gdje je nedostatak jasne dokumentacije izazvao probleme s regulatorima, i to mi je baš otvorilo oči koliko je transparentnost važna. Kako vi preporučujete za manje firme s ograničenim resursima da usklade sve ove zahtjeve? Postoji li neki jednostavniji način, a da ipak budu u skladu s aktima? Ili je ovo jednostavno postao novi standard za sve, bez obzira na veličinu?’

Komentariši

Vaša email adresa neće biti objavljivana. Neophodna polja su označena sa *