Šta je Human in the loop? Čovjek koji ispravlja AI [2026]
Prestanite vjerovati marketing bajkama koje vam kažu da će AI zamijeniti cijeli vaš tim do sljedećeg utorka. To je laž koja će vas koštati hiljade maraka u izgubljenim klijentima i uništenim podacima. Vi ste onaj kritični osigurač u sistemu koji sprečava da vaša digitalna mašinerija ne izgori pod pritiskom realnog svijeta. Ako planirate uvesti vještačku inteligenciju u svoj posao 2026. godine, morate razumjeti koncept ‘Human-in-the-Loop’ (HITL) ne kao opciju, već kao jedini način da preživite.
Zašto je ‘Potpuna Automatizacija’ mit koji će vas koštati
Direktna istina je da AI modeli, bez obzira na to koliko su ‘pametni’, nemaju osjećaj za kontekst niti za moralnu odgovornost. Zamislite to kao da ostavite šegrta koji prvi put drži cirkular u rukama samog u radionici. On zna kako da siječe, ali ne zna kada treba da stane jer je čvor u drvetu previše tvrd. Isto se dešava i sa vašim botovima. Bez nadzora, oni će početi da haluciniraju. Smanjiti AI halucinacije je nemoguće bez ljudske intervencije koja reže greške u korijenu. Čućete zujanje servera, osjetićete miris ozona dok procesori rade na 100%, ali ako na kraju procesa nema ljudskog oka da provjeri izlaz, vi se kockate sa svojom reputacijom. To će boljeti. Vaš novčanik će to osjetiti.
Šta se desi kada AI ‘pukne’ bez nadzora?
Često vidim firme koje misle da su uštedjele jer su ugasile podršku korisnicima i ubacile bota. Rezultat? Bot počne da psuje klijente ili nudi popust od 99% jer je neko uspio da mu ‘provali’ logiku. Ovo nije samo teorija; to je realnost koju rješava prevencija prompt injection napada. Bez čovjeka koji prati te interakcije, vi ste ostavili vrata svoje radionice širom otvorena usred noći.

RLHF i Fino Podešavanje: Kako ‘slather-ujete’ ljudsku logiku na sirove podatke
Reinforcement Learning from Human Feedback (RLHF) je proces gdje vi, majstor, uzimate rezultate modela i doslovno ih ‘brusite’ dok ne postanu upotrebljivi. To je prljav posao. Pregledaćete stotine redova teksta dok vam oči ne zasuze, ali to je jedini put do kvaliteta. Kada radite trening AI modela, vi ne ubacujete samo podatke; vi ubacujete svoje iskustvo. Svaki put kada ispravite pogrešan prevod ili loše napisan kod, vi zatežete vijke na konstrukciji koja bi se inače srušila pri prvom jačem vjetru. Nemojte štedjeti na ljepilu ovdje. Namažite taj feedback debelo. Don't skip this.
WARNING: Nikada ne puštajte AI model da direktno pristupa vašim glavnim bazama podataka bez ‘kill-switch’ dugmeta koje kontroliše čovjek. Jedan pogrešan ‘delete’ upit generisan od strane vještačke inteligencije može spržiti decenije rada brže nego što multimetar može izmjeriti napon od 220V.
Fizika žaljenja: Anatomija jednog AI kvara
Dozvolite mi da vam opišem katastrofu koju sam vidio prošlog proljeća. Jedna lokalna firma je automatizovala narudžbine materijala. Model je zaključio da je cijena čelika u padu i naručio je količinu koju nisu mogli skladištiti u tri života. Zašto? Jer nije bilo čovjeka u krugu da kaže: ‘Čekaj, mi nemamo mjesta za ovo.’ Šest mjeseci kasnije, plaćali su penale za skladištenje koji su bili pet puta veći od uštede na čeliku. To je fizika žaljenja u digitalnom obliku. Popravite trening svog modela prije nego što on popravi vaše stanje na bankovnom računu na nulu. Velika greška.
DIY Audit: Kako testirati svoj HITL sistem za vikend
Ne treba vam skupa agencija. Uzmite svoj telefon, otvorite interfejs bota i pokušajte ga natjerati da pogriješi. To se zove ‘Red Teaming’. Ako ga možete ‘slomiti’ za deset minuta, vaš HITL sistem je smeće. Provjerite latenciju; ako čovjeku treba više od 200ms da reaguje na grešku, proces automatizacije je prebrz za vašu kontrolu. Uradi sam AI audit je proces koji zahtijeva strpljenje, ali otkriva rupe koje bi vas inače koštale glave. Možda će vas boljeti leđa od sjedenja, ali uradite to kako treba. Kao što moj prijatelj Mile iz štamparije kaže: ‘Dvaput provjeri, jednom pusti u produkciju.’
Koji alati vam trebaju za kontrolu?
Zaboravite na fensi dashboarde od 5.000 dolara. Koristite jednostavne logove. Ako vidite da model ‘štuca’ na određenim pitanjima, to je znak da mu treba dodatno ljudsko vođstvo. Ponekad je rješenje u tome da se podesi hyperparameter tuning, ali najčešće je problem u tome što ste previše vjerovali algoritmu, a premalo svom osjećaju u stomaku.
Zašto ovo radimo? Nauka o neuronskim vezama
U svojoj srži, AI modeli su stohastički papagaji. Oni predviđaju sljedeću riječ ili piksel na osnovu vjerovatnoće. Čovjek u krugu dodaje onaj sloj koji nauka naziva ‘Ground Truth’ ili apsolutna istina. Zamislite da pravite betonsku stazu. AI je šljunak i cement, ali ljudski nadzor je voda koja to sve povezuje u čvrstu cjelinu. Bez vode, imaćete samo gomilu prašine koja će se razletjeti pri prvom koraku. U 2026. godini, zakoni o zaštiti podataka (GDPR i EU AI Act) će postati još stroži. Zakon o zaštiti podataka će direktno kažnjavati firme koje nemaju jasnu ljudsku odgovornost iza odluka vještačke inteligencije. To nije samo pitanje efikasnosti, već i legalnosti. Ne želite da vam inspektor kuca na vrata jer je vaš bot diskriminisao klijenta bez nadzora. Spriječite diskriminaciju algoritma odmah, dok još imate kontrolu nad kodom.
Praktični savjet za kraj: Svaki put kada implementirate novi AI alat, odredite jednu osobu koja će biti ‘Chief Human’. Ta osoba mora imati moć da ugasi sistem u sekundi. AI je vaš alat, a ne vaš šef. Držite taj cirkular čvrsto objema rukama.
