Model ti kvari? Detektuj degradaciju AI za 5 minuta
Digitalna rđa: Zašto tvoj AI model gubi oštrinu
AI nije magija koja vječno radi bez podmazivanja. To je mašina. Ako misliš da će tvoj prilagođeni GPT agent ili lokalni LLM raditi isto danas i za pola godine bez tvoje intervencije, debelo griješiš. Vaš model propada. To se zove ‘model drift’ i događa se tiho, dok ti spavaš. Prvi simptomi su suptilni: odgovor koji je nekada bio precizan postaje opširan, ili tvoj bot počne da koristi čudan ton koji nisi tražio.
U svijetu radionice, to je kao da ti se tupa testera polako krivi dok siječeš hrastovinu. Možeš nastaviti gurati, ali ćeš na kraju dobiti spaljeno drvo i uništen alat. Morate znati kako mjeriti preciznost svog digitalnog alata prije nego što postane neupotrebljiv. Ako ste se pitali ko je odgovoran za AI grešku, odgovor je jednostavan – onaj ko ga nije servisirao. Za ovaj test ti ne treba doktorat, samo pet minuta i oko sokolovo.
Da li je degradacija modela isto što i zastarijevanje?
Ukratko: Ne. Zastarijevanje je kada izađe novija verzija, poput novog modela bušilice. Degradacija (drift) je kada tvoja postojeća bušilica počne da gubi snagu jer su se četkice istrošile. Podaci se mijenjaju, svijet se mijenja, a tvoj fiksni model ostaje zarobljen u prošlosti.
Multimetar za kod: Alati koji su ti potrebni da izmjeriš ‘Drift’
Zaboravi skupe dashboarde i pretplate od 500 dolara. Pravi majstor koristi ono što ima u garaži. Da bi detektovao kvar, treba ti ‘Golden Dataset’ – set od 20 pitanja na koja tvoj model apsolutno mora znati tačan odgovor. To je tvoj referentni šablon. Ako model počne da odstupa od tih odgovora za više od 10%, sistem ti je u kvaru. 
CRVENA ZONA (SIGURNOST): Nikada ne ubacuj API ključeve direktno u neprovjerene skripte za testiranje. Izlaganje vašeg Environment fajla je isto što i ostavljanje ključeva od kuće u bravi dok si na odmoru. Koristi env varijable ili ćeš se probuditi sa računom od 2.000 KM na Azure-u.
Kada vršite testiranje, obratite pažnju na ‘latenciju’ i ‘perpleksiju’. Ako modelu treba više vremena da ‘smisli’ odgovor na isto pitanje nego prošlog mjeseca, nešto ga guši. Možda je u pitanju loš word embedding koji više ne mapira nove termine kako treba. Provjeri to odmah.
Anatomija kvara: Kako izgleda kada model počne halucinirati
Halucinacije nisu slučajne greške. One su sistemski kolaps logike. Zamisli da pokušavaš spojiti dva komada drveta vijcima, ali tvoj odvijač odjednom odluči da je on zapravo čekić. To boli. Kada AI počne da izmišlja činjenice, on ne ‘griješi’ – on pokušava da popuni praznine u svojoj degradiranoj mapi vjerovatnoće.
Zašto se ovo dešava?
1. Data Drift: Ulazni podaci koje tvoji korisnici šalju su se promijenili (npr. koriste novi sleng koji model ne prepoznaje).
2. Concept Drift: Samo značenje odgovora se promijenilo (npr. pravila o GDPR-u u Srbiji su se izmijenila, ali tvoj bot i dalje nudi stare informacije).
3. Upstream Changes: Provajder tvog modela (OpenAI, Anthropic) je uradio ‘fine-tuning’ iza kulisa i tiho ti ‘zatupio’ bota da uštedi na procesorskoj snazi. To se zove lobotomija modela. Osjetićeš je kao spor odziv i generičke odgovore.
5-minutni protokol: Isoliši problem bez gubljenja vremena
Prati ove korake. Brzo. Bez oklijevanja.
Prvi minut: ‘The Smoke Test’. Pošalji modelu tri najteža upita koja je ranije rješavao bez problema. Ako muca, imamo problem.
Drugi minut: Provjera temperature. Doslovno. Provjeri ‘temperature’ parametar u kodu. Ako je previsok (iznad 0.7), tvoj bot je ‘pijan’. Smanji to na 0.2 za preciznu dijagnostiku.
Treći minut: Poređenje tokena. Pogledaj broj tokena u odgovoru. Ako je odgovor odjednom duplo duži, a informacija je ista, model se gubi u šumu.
Četvrti minut: Testiranje na srpskom. Modeli često prvo ‘pucaju’ na jezicima koji nisu engleski. Iskoristi najbolje srpske AI alate da vidiš da li je problem samo u tvom modelu ili u opštoj logici jezika.
Peti minut: Presuda. Ako model padne na 2 od 5 testova, vrijeme je za fine-tuning. Ne pokušavaj to popraviti jačim promptovima. To je kao da pokušavaš popraviti motor jačim pritiskom na gas. Samo ćeš ga brže spaliti.
Fizika žaljenja: Šta se desi ako ignorišeš preciznost
Postoji naučni razlog zašto degradacija boli. Kada AI model gubi preciznost, on ne pada linearno. On pada eksponencijalno. To je kao kod korozije na metalu. U početku je to samo mala mrlja, ali kada probije zaštitni sloj, struktura propada preko noći. U digitalnom svijetu, to znači da će tvoj bot odjednom početi psovati kupce ili odavati interne poslovne tajne jer je ‘zaboravio’ svoje etičke barijere.
The Anatomy of a Screw-Up: Jedan moj klijent je ignorisao drift na botu za analizu ugovora. Šest mjeseci kasnije, bot je prestao prepoznavati klauzule o penalima jer se format PDF-ova koje su banke slale neznatno promijenio. Rezultat? Propušteni penali u vrijednosti od 15.000 KM. Sve to jer niko nije odvojio pet minuta da provjeri ‘šablon’.
Ne budi taj lik. Provjeri svoje vijke. Ako ne znaš kako, nauči osnove prompt inženjeringa i preuzmi kontrolu.
Smanji Cloud račun: Optimizacija kroz dijagnostiku
Kada model kvari, on troši više resursa. Više tokena, više poziva, više tvojih para. Detektovanjem degradacije na vrijeme, zapravo štediš ozbiljan novac. Optimizacija AI troškova počinje sa ispravnim modelom. Ako tvoj model radi ‘čisto’, on je brz i jeftin. Ako ‘škripi’, on je rupa bez dna.
I zapamti: alat je dobar onoliko koliko je dobar majstor koji ga održava. Prestani tretirati AI kao crnu kutiju. Otvori haubu. Isprljaj ruke kodom. To je jedini način da preživiš u 2026. godini.


![Poveži frižider sa AI planerom obroka [Brzi trik]](https://aiskola.org/wp-content/uploads/2026/02/Povezi-frizider-sa-AI-planerom-obroka-Brzi-trik.jpeg)