AI opet griješi? Natjeraj model da uči na greškama
Prestanite vjerovati marketingu: AI nije pametan, on je samo pijan od tvojih podataka
Prestanite kupovati priču o tome kako su LLM modeli (Large Language Models) magični digitalni mozgovi koji ‘razmišljaju’. To je laž koja će vas koštati hiljade dolara u API tokenima i stotine sati izgubljenog vremena. Istina je brutalna: tvoj model je samo prediktivna mašina koja, ako je ne usmjeriš, udara u zid čim naiđe na kompleksniji problem. Ako tvoj chatbot uporno nudi pogrešne odgovore korisnicima ili ti generiše kod koji se ruši pri prvom kompajliranju, problem nije u AI-u. Problem je u tebi jer mu dopuštaš da ponavlja iste gluposti. Ovaj vodič ti daje znanje kako da ‘zalemiš’ logiku direktno u njegov workflow, a to te neće koštati ništa osim malo znoja nad tastaturom.
Zašto moj model uporno halucinira?
Vjerovatno si čuo da trebaš samo ‘bolje prompte’. To je savjet za amatere. Prava dijagnoza kvara najčešće leži u nedostatku povratne sprege. Zamisli da pokušavaš popraviti auto bez da ikada čuješ zvuk motora. Upravo to radiš svom modelu. Da bi prestao griješiti, moraš implementirati sistem koji se zove Reinforcement Learning from Human Feedback (RLHF) ili, za nas koji nemamo budžet OpenAI-a, pametni Self-Correction Loop. Prvi korak je da naučiš kako prepoznati loš AI model prije nego što ga pustiš u produkciju. Bez toga, samo sipaš gorivo u rezervoar koji curi.
Dijagnoza kvara: Znakovi da ti se AI ‘mozak’ pregrijao
Kada model počne da ‘puca’ pod pritiskom, osjetit ćeš to kroz miris sprženih neurona (metaforički, naravno). Prvi simptom je ‘stohastičko papagajstvo’ – model ponavlja fraze koje zvuče pametno, ali nemaju smisla u kontekstu. Čuješ li onaj tihi zvuk ventilatora na svom laptopu dok se muči sa 70B modelom? To je zvuk trenja između tvoje loše baze podataka i algoritma koji pokušava da je shvati. Ako tvoj sistem za preporuke na Shopify-u nudi kupaće kostime usred zime u Sarajevu, tvoj model ne uči, on samo nagađa. Moras podesiti AI preporuke onako kako to rade profesionalci, a ne kako piše u PR objavama.

Fizika kajanja: Zašto modeli ‘zaboravljaju’ ispravke
Voda se širi za 9% kada se smrzne, a tvoj AI model se ‘naduvava’ smećem kada ga pokušaš popraviti prevelikom količinom nasumičnih podataka. Ovo se zove overfitting. Zamisli da pokušavaš zategnuti vijak koji je već proklizao – što više okrećeš, to je rupa veća. Kada modelu kažeš ‘pogriješio si, popravi to’, a ne objasniš mu zašto, on samo mijenja jednu grešku drugom. Njegovi težinski faktori (weights) se poremete kao loše izbalansirane gume na autu pri 140 na sat. Da bi to izbjegao, moraš koristiti metodu koju zovemo ‘Chain of Thought’ uz obaveznu verifikaciju. Ne dopusti mu da samo izbaci rezultat; natjeraj ga da pokaže rad, korak po korak, kao strogi nastavnik matematike.
UPOZORENJE: Nikada ne ostavljaj model da se samostalno re-trenira na podacima koje generišu korisnici bez ljudske supervizije. Jedan bot može zatrovati cijelu bazu za manje od 5 minuta, pretvarajući tvoj skupi alat u generator toksičnog otpada. 120V struje u zidu te može ubiti, ali loš AI podatak može ubiti tvoj biznis jednako brzo.
Anatomija jednog ‘Screw-Up-a’: Kako sam spržio 300 dolara na API tokene
Desilo se prošlog utorka. Ostavio sam skriptu da radi ‘loop’ provjere grešaka bez postavljenog limita (max_tokens). Do ujutro, model je upao u beskonačnu petlju pokušavajući da riješi jedan sintaksički bag. Rezultat? Prazan novčanik i nula riješenih problema. Lekcija: uvijek postavi ‘clutch’ (kvačilo) na svom API pozivu. Ako model ne riješi problem iz tri pokušaja, gasi mašinu. To je kao kod bušenja u tvrdi beton – ako burgija ne ulazi nakon minut, samo ćeš je istopiti ako nastaviš. Uvijek prati performanse modela u realnom vremenu. Alat koji čuva tvoj sistem nije luksuz, to je osigurač koji sprečava požar.
Da li je Fine-tuning jedini spas?
Mnogi će ti reći da moraš raditi fine-tuning na hiljadama primjera. Lažu. Često je dovoljno samo 10 kvalitetnih ‘few-shot’ primjera gdje modelu pokažeš: ‘Evo greške, evo zašto je to greška, evo kako se ispravlja’. To je razlika između kupovine novog motora i jednostavnog čišćenja karburatora. Fokusiraj se na kvalitet, a ne na kvantitet. Iskoristi transfer learning da skratiš put. Zašto učiti model da hoda ako već zna trčati? Iskoristi tuđe baze znanja i nadogradi samo ono što ti specifično treba.
Složi feedback petlju kao profesionalni stolar
Ljepilo za drvo mora biti ljepljivo kao post-it papirić prije nego što stegneš stegu. Slično je i sa tvojim podacima. Tvoj ‘feedback loop’ mora imati tri komponente: detekciju greške, analizu uzroka i validaciju rješenja. Nemoj samo ‘bacati’ ispravke na model. Ako koristiš Python, napiši testove koji automatski provjeravaju izlaz bota. Ako test padne, vrati output botu sa porukom o grešci iz konzole. To je kao da mu daš ogledalo i kažeš ‘vidi kako ti visi košulja’. On će je sam zakopčati. Ovo je ključno ako želiš da tvoj Github Copilot radi brže i preciznije – ne prihvataj svaku sugestiju kao sveto pismo.
Zašto ti treba ‘Code Reality Check’ (NEC 2026 standardi)
Baš kao što NEC 2023 zahtijeva neutralnu žicu u kutiji prekidača za pametne dimere, tako i moderni AI sistemi zahtijevaju transparentnost u logovanju. Ako tvoj sistem nema ‘audit log’ svake greške koju je model napravio, ti ne gradiš alat, ti gradiš tempiranu bombu. As of 2026, firme koje ne budu imale dokumentovan proces ispravljanja AI grešaka suočavat će se sa ozbiljnim pravnim problemima, slično kao kod neispravnih električnih instalacija. Ne budi onaj lik čiji je bot obećao besplatne automobile jer je neko našao bag u logici. Zaključaj to odmah.
Često postavljana pitanja o AI greškama
Da li model postaje gluplji s vremenom?
Da, ako ga ne osvježavaš. To se zove ‘model drift’. Kao što guma na autu gubi profil, tako i model gubi kontakt sa stvarnošću ako se oslanja na stare podatke iz 2021. godine. Redovno ga testiraj na novim primjerima.
Koliko košta popravka jednog AI modela?
Zavisi od tvoje tvrdoglavosti. Ako koristiš open-source modele i lokalne servere, košta te samo struje (koju možeš uštedjeti ako koristiš zeleni AI pristup). Ako si na oblaku, prati svaki cent jer cloud provajderi obožavaju tvoje greške – one im plaćaju jahte.
Zaključak: Grubi radovi su gotovi, ostaje fino brušenje
Popravljanje AI modela nije naučna fantastika, to je zanat. Zahtijeva strpljenje, disciplinu i spremnost da se isprljaju ruke u blatu sirovih podataka. Ne traži prečice. Ako model pogriješi, udari mu ‘digitalni šamar’ u vidu restriktivnog prompta i jasne instrukcije. Tvoj cilj nije savršenstvo iz prvog pokušaja, već sistem koji je svaki dan za 1% manje glup nego juče. To je jedini način da preživiš u svijetu gdje svi misle da je ‘prompt engineering’ samo kucanje rečenica. Budi majstor, a ne samo korisnik. Iskopaj te greške, analiziraj ih i natjeraj mašinu da radi za tebe, a ne obrnuto. Tvoj armija botova te čeka, ali samo ako znaš kako da ih držiš na kratkoj uzici.
