Spremi se za AI zakon: Spriječi curenje podataka u 3 koraka [2026]
Kazna od 35 miliona eura ili 7% vašeg godišnjeg prometa. To nije naslov iz žute štampe, već hladna realnost novog AI zakona koji stupa na snagu. Ako mislite da je vaš mali lokalni sistem nevidljiv za regulatore, griješite. Već do worda 150 znat ćete tačno koje alate trebate da zaključate svoje servere i koliko ćete novca uštedjeti izbjegavanjem advokatskih naknada. Gledate u svoje baze podataka i vidite samo redove teksta; ja vidim tempiranu bombu koja čeka da procuri kroz API poziv. Vaša privatnost više nije samo vaša stvar, ona je sada zakonska obaveza koja se provjerava multimetrom digitalne forenzike.
Zaboravi na ‘privacy policy’ iz 2024. godine: Zašto tvoj firewall sada škripi
Stari zidovi su probijeni. AI modeli ne kradu podatke samo dok se prenose; oni ih ‘uče’ i kasnije ispljunu neovlaštenim korisnicima. Ako koristite standardni ChatGPT API bez posebnih zaštita, vi doslovno slathers (razmazujete) povjerljive informacije svojih klijenata po tuđim serverima. Slušajte zvuk svog servera pod opterećenjem — taj zagušljivi whir (zujanje) ventilatora je energija koju trošite na rizik. Potrebna vam je izolacija. Siguran ured nije onaj sa zaključanim vratima, već onaj sa kontrolisanim protokom tokena. Osjetite teksturu kablova pod prstima; svaki od njih može biti kanal za curenje ako ne znate šta se dešava u ‘crnoj kutiji’ modela.

Korak 1: Iščupaj osjetljive podatke (Data Sanitization) prije nego postanu ‘trening materijal’
Prvo pravilo radionice: nikada ne vari blizu benzina. U AI svijetu, to znači da nikada ne šalješ PII (Personally Identifiable Information) direktno u model. Morate koristiti ‘anonymizer’ skripte koje će prepoznati imena, brojeve telefona i adrese te ih zamijeniti generičkim oznakama. Ja sam proveo 14 sati debugirajući skriptu koja je propustila samo jedan IBAN — i to je bilo dovoljno da cijeli sistem proglasimo nesigurnim. Koristite lokalne biblioteke kao što je Presidio. Nemojte kupovati gotova rješenja koja obećavaju ‘magiju’. Izbjegni kazne tako što ćeš biti grub prema svojim podacima. Ako podatak ne mora biti tamo, jam (zaglavi) ga u lokalnu bazu i ne puštaj dalje. Kratko i jasno. Sigurnost košta vremena, ali neznanje košta firme.
UPOZORENJE: Testiranje AI modela na stvarnim podacima klijenata bez prethodne enkripcije je digitalni ekvivalent radu sa cirkularom bez štitnika. Jedan pogrešan ‘prompt’ i vaši privatni ključevi mogu postati dio javnog dataseta. Provjerite enkripciju na nivou baze prije svakog API poziva.
Korak 2: Postavljanje kriptografskog štita i lokalni ‘Sandbox’
Većina tutorijala na YouTube-u će vam reći da je HTTPS dovoljan. To je laž. Da bi vaš sistem prošao inspekciju 2026. godine, treba vam ‘Zero-Knowledge’ arhitektura. To znači da čak ni vaš AI provajder ne može pročitati šta mu šaljete. Kako? Korištenjem homomorfne enkripcije ili barem lokalnog proxy servera koji filtrira upite. Miris ozona u serverskoj sobi treba da vas podsjeća na čistoću podataka. Ako vaš model radi u ‘cloudu’, vi ste stanar, a ne vlasnik. Premjestite kritične operacije na lokalne modele poput Llama 3 ili Mistral koristeći Ollama platformu. Zaštiti privatne ključeve kao što čuvaš stari djedov alat — s poštovanjem i u suhoj kutiji.
Zašto se vaši podaci ‘znoje’ u cloudu?
Kada podaci napuste vašu lokalnu mrežu, oni gube svoju težinu. Postaju fluidni i podložni ‘scrapingu’. Nauka iza ovoga je jednostavna: enkripcija povećava entropiju, čineći podatke beskorisnim za svakoga ko nema ključ. Bez ključa, vaš najskuplji dataset je samo digitalno smeće. To je fizika digitalne sigurnosti.
Anatomija katastrofe: Kako je jedna zaboravljena skripta ‘spržila’ povjerenje
Evo kako izgleda propast: Firma iz Sarajeva je 2025. koristila AI za rezime sastanaka. Zaboravili su isključiti ‘training mode’ na svom GPT nalogu. Šest mjeseci kasnije, konkurentska firma je dobila njihove prodajne strategije jer je AI ‘naučio’ njihove interne termine i počeo ih predlagati drugim korisnicima. Šteta? Neprocjenjiva. Ugled? Uništen. Sve zbog toga što je neko mislio da je ‘Copy-Paste’ u prozorčić chat-a bezopasan. Nemojte biti taj lik. Provjerite ljudski nadzor nad svakim automatizovanim procesom. Jedna greška u januaru znači split (pucanje) cijelog poslovnog modela do juna, kada vlažnost u zraku poraste, a vaši klijenti počnu postavljati nezgodna pitanja.
Korak 3: Ljudski nadzor ili ‘Kill Switch’ protokol
Zadnji korak nije tehnički, već operativni. Svaki AI odgovor mora proći kroz filter koji detektuje curenje informacija (DLP – Data Loss Prevention). Ako sistem detektuje riječ ‘Ugovor’ ili ‘Lozinka’ u odgovoru koji ide prema vani, mora se aktivirati automatsko gašenje. To je vaš osigurač. Isključi ga. Odmah. Ako osjetite otpor u sistemu, to je dobro — to znači da sigurnosni protokoli rade. Prema standardu ISO/IEC 42001, koji će biti osnova za zakonske provjere, svaki sistem mora imati opciju ‘Human-in-the-loop’. Ne vjerujte kodu; vjerujte čovjeku koji drži prst na prekidaču. Vaša ruka će se umoriti od stalnih provjera dnevnika (logova), ali to je jedini način da mirno spavate dok inspektori kucaju na vrata konkurencije.

![Spremi se za AI zakon: Spriječi curenje podataka u 3 koraka [2026]](https://aiskola.org/wp-content/uploads/2026/04/Spremi-se-za-AI-zakon-Sprijeci-curenje-podataka-u-3-koraka-2026.jpeg)


