Spriječi curenje podataka: Siguran rad sa AI modelima
Kritična tačka curenja: Zašto tvoj prompt košta 50.000 KM
Curenje samo jedne baze klijenata ili povjerljivog ugovora kroz ChatGPT prompt može tvoj biznis koštati bogatstvo u kaznama prije nego što popiješ prvu kafu. Ti misliš da samo postavljaš pitanje, ali AI model usisava svaku tvoju riječ kao sunđer. Ako mu ‘ubaciš’ osjetljiv kod ili lične podatke, oni više nisu tvoji. Postali su dio statističkog oblaka koji se može pojaviti u odgovoru tvog konkurenta. Pogledaj istinu u oči. Svaki put kad klikneš ‘Enter’ na nezaštićenom modelu, otvaraš rupu u svom digitalnom zidu. Osjećaš li taj hladan znoj kad shvatiš da si poslao API ključ u chat? Trebao bi. To je miris katastrofe koja čeka da se desi.
Isključi opciju treninga: Prvi korak koji svi zaboravljaju
Odmah uđi u postavke svog AI naloga i ugasi opciju ‘Chat History & Training’. Ovo je jedini način da spriječiš model da uči na tvojim greškama. Većina korisnika trči da dobije odgovor, zanemarujući sitna slova u dnu ekrana. To je amaterska greška. Ako koristiš besplatne verzije, ti si proizvod. Tvoji podaci su gorivo za njihovu mašinu. Sigurnost podataka i kako AI čuva tvoje lozinke u 2026. nije samo teorija, to je tvoj štit. Nemoj biti lijen. Zakopaj se u te postavke i zategni ih dok ne postanu neprobojne. Čvrsto. Bez milosti.
WARNING: Nikada, ali apsolutno nikada ne unosi ‘plaintext’ lozinke ili ključeve baze podataka u promptove javnih modela. Jednom kada podatak uđe u trening set, nemoguće ga je ‘izbrisati’. To je kao da sipaš mastilo u bazen — ne možeš ga više izvući. 120v šok na tvoj budžet je zagarantovan ako se ovi podaci pojave na dark webu.
Zašto je ‘Copy-Paste’ refleks tvoj najveći neprijatelj
Prestani slati cijele Excel tabele u AI prozor bez anonimizacije. Svako ime, svaki ID i svaki broj telefona su ‘otvorena knjiga’. Ako moraš analizirati podatke, koristi ‘placeholder’ imena. Umjesto ‘Asim iz Sarajeva’, koristi ‘Klijent_A’. Dosadno je? Jeste. Da li će ti spasiti posao? Hoće. Gledaj kako tvoj kod krvari tajne dok ga AI ‘popravlja’. Smiješno je dok ne dobiješ poziv iz agencije za zaštitu podataka. Provjeri da li tvoj AI sistem curi podatke odmah. Nemoj čekati ponedjeljak. Budi hirurg, ne mesar. Sijeci osjetljive dijelove prije nego što ih predaš botu.

Fizika gubitka podataka: Kako tokeni postaju javno dobro
Zašto ovo radi: AI ne razumije tvoj tekst kao čovjek; on ga pretvara u tokene, numeričke vektore. Kada model uči, on prilagođava težine u svojoj neuronskoj mreži na osnovu tih vektora. Ako mu daš specifičan, rijedak podatak — poput tvog jedinstvenog algoritma za cijene — taj podatak postaje ‘vruća tačka’ u mreži. Model kasnije može ‘predvidjeti’ taj tvoj algoritam kada ga neko drugi upita za sličnu logiku. To nije magija, to je matematika. I ta matematika radi protiv tebe ako je ne kontrolišeš. Tvoj intelektualni rad postaje javno dobro u tri milisekunde.
Anatomija katastrofe: Kako je junior dev spalio projekat
Desilo se prošle godine u jednoj lokalnoj firmi. Mlad inženjer, u želji da brže završi ‘bug fix’, ubacio je cijelu klasu za autorizaciju u ChatGPT. Htio je samo da mu AI popravi jedan ‘if-else’ blok. Uz kod je zakačio i hardkodirani tajni ključ. Šest mjeseci kasnije, konkurentska firma je, istražujući slične implementacije, dobila fragment koda koji je prepoznala. Rezultat? Kompromitovan sistem, tri sedmice besanih noći i šteta od 40.000 KM. Ključ je bio tamo, u oblaku, čekajući da ga neko ‘izvuče’ pravim pitanjem. Nemoj biti taj lik. Ispeglaj svoj workflow. Ne uništavaj bazu i izbjegni greške pri uvozu podataka.
Da li je sigurno koristiti lokalne AI modele?
Da, to je jedini pravi put za firme koje cijene tajnost. Instaliranjem modela kao što je Llama 3 ili Mistral na sopstveni hardver, podaci nikada ne napuštaju tvoju lokalnu mrežu. Nema interneta, nema curenja. Zaboravi na Cloud ako radiš sa državnim tajnama ili medicinskim podacima. Podesi lokalni RAG sistem i čuvaj privatnost firme kao profesionalac. Jeste teže za podesiti, ali spavaš mirno. Zvuk ventilatora na tvom serveru je zvuk sigurnosti.
Code Check: GDPR i lokalni zakoni u 2026.
Napomena: Prema važećim regulativama Agencije za zaštitu ličnih podataka u BiH i EU GDPR-u, slanje ličnih podataka građana na servere van Evrope bez eksplicitnog pristanka i zaštitnih mjera je direktno kršenje zakona. Kazne su rigorozne. Kao što NEC standardi zahtijevaju uzemljenje za svaku utičnicu, tvoj AI workflow zahtijeva ‘data masking’ prije nego što podaci dotaknu Cloud. Provjeri svoje ugovore. Većina klijenata ti zabranjuje korištenje AI alata nad njihovim podacima bez pismene dozvole. Pročitaj sitna slova. Odmah.
Mogu li AI modeli ‘zaboraviti’ moje podatke?
Uglavnom ne. Jednom kada je model istreniran, podaci su ‘zacementirani’ u težinama modela. Možeš obrisati chat istoriju, ali ono što je ugrađeno u samu inteligenciju modela ostaje tamo dok se ne uradi nova verzija (retraining). Zato je prevencija jedina prava taktika. Ako si već pogriješio, jedina opcija je promjena svih ključeva i lozinki koje su procurile. To je rudarstvo podataka u svom najgorem obliku. Skupo je. Mukotrpno je. Ali neophodno. Slather (nalijepi) sigurnosne protokole preko svakog procesa. Ne budi stidljiv sa enkripcijom.
Završi posao: Tvoj dnevnik sigurnosti
Ovo nije jednokratan posao, već stalni protokol. Provjeravaj logove pristupa. Edukuj tim da ne jam (ugurava) osjetljive fajlove u browser ekstenzije. Svakih 30 dana uradi reviziju dozvola. Tvoj AI asistent je koristan, ali je i potencijalni ‘krtica’ u tvom timu. Tretiraj ga sa sumnjom. Budi onaj strogi inspektor koji ne prašta greške. Na kraju dana, tvoja reputacija je jedina stvar koju ne možeš ponovo istrenirati. Drži je čistom. Drži je sigurnom. Bez kompromisa.

