Podesi AI model: Hyperparameter tuning u 3 koraka [2026]
Prestanite vjerovati onima koji kažu da je tuning modela ‘umjetnost’.
To je matematika i surova inženjerska disciplina, a većina vas to radi pogrešno, trošeći GPU sate kao da su besplatni. Ako tvoj model ima gubitak (loss) koji skače kao pijanac na svadbi, tvoj learning rate je smeće. U 2026. godini, oslanjanje na defaultne postavke je siguran put ka neuspjehu projekta. Ovaj vodič će te natjerati da prestaneš nagađati i počneš mjeriti, štedeći ti hiljade maraka u procesorskoj moći. Trebaće ti Python 3.12, minimalno 24GB VRAM-a i nula tolerancije prema ‘dobrim vibracijama’.

Zašto tvoj model ‘halucinira’ i troši resurse?
Problem nije u arhitekturi, nego u tvojoj lijenosti da postaviš parametre kako treba. Mnogi misle da će dodavanje više slojeva riješiti problem, ali to samo stvara ‘vanishing gradient’ košmar. Realnost je takva da loš tuning pretvara tvoj skupi server u grijalicu od 2000 eura koja ne zna prepoznati mačku od psa. Koristite alate kao što je Optuna ili Ray Tune, a ne ručno mijenjanje brojeva dok ne zaspite za tastaturom.
Korak 1: Izolacija šuma i postavljanje granica pretrage
Odmah postavi ‘search space’ za svoje parametre. Ne smiješ dopustiti algoritmu da luta u beskonačnost. Fokusiraj se na tri ključna igrača: Learning Rate, Batch Size i Dropout Rate. Miris pregrijanog silicijuma u tvojoj sobi je znak da tvoj rig radi punom parom, ali bez jasno definisanih granica, on samo vrti u prazno. Postavi logaritamsku skalu za learning rate između 1e-5 i 1e-2. Ako kreneš linearno, promašićeš ‘sweet spot’ brže nego što tvoj model proždre bazu podataka. Iskusni inženjeri znaju da je stabilnost bitnija od brzine. Pogledaj kako se troše resursi kod lošeg tuninga prije nego što spališ budžet.
OPREZ: Ako primijetiš da temperatura tvog GPU-a prelazi 85°C tokom Optuna skeniranja, odmah prekini proces. Termalno prigušivanje (throttling) će ti dati lažne rezultate performansi, a u najgorem slučaju, 120v strujni šokovi iz lošeg napajanja mogu trajno oštetiti VRAM čipove. Provjeri multimetrom stabilnost napona na PCIe granama.
Korak 2: Implementacija Bayesian optimizacije (Zaboravi Grid Search)
Grid Search je relikt prošlosti koji treba ostati u 2010. godini. To je brute-force metoda koja troši vrijeme koje nemaš. Bayesian optimizacija koristi rezultate prethodnih pokušaja da bi ‘pametno’ izabrala sljedeći set parametara. To je kao da pratiš tragove u šumi umjesto da nasumično udaraš u svako drvo. Osjetit ćeš onaj specifičan, metalni miris ozona dok tvoj procesor žvače vjerovatnoće. Ako tvoj batch size nije stepen dvojke (32, 64, 128), tvoj GPU scheduler će plakati. To nije estetika, to je način na koji memorijski kontroleri komuniciraju sa hardwareom. Ne gubi vrijeme i skrati učenje koristeći transfer learning ako nemaš sedmice za treniranje od nule.
Zašto se Batch Size mora poštovati?
Batch size nije samo broj slika koje guraš kroz model. To je količina memorijskog pritiska na tvoju sabirnicu. Ako ga zaglaviš previše visoko, dobićeš ‘Out of Memory’ (OOM) grešku koja će ti srušiti cijeli trening usred noći. Ako je premali, tvoj gradijent će biti toliko bučan da model nikada neće konvergirati. To je fizika, a ne magija. Uvijek ostavi 10% VRAM-a slobodno za sistemske procese da izbjegneš ‘stuttering’.
Korak 3: Validacija i ‘The Anatomy of a Screw-Up’
Najveća greška koju ćeš napraviti je overfitting na validacioni set. Misliš da si dobio savršen model? Ne, dobio si model koji je nabubao tvoje testove napamet. To je kao student koji zna odgovore na pitanja, ali ne razumije gradivo. Izguraj model kroz unakrsnu validaciju (Cross-Validation). Ako tvoja tačnost na treningu raste, a na validaciji pada, tvoj Dropout je premali. Razmaži taj Dropout na 0.4 ili 0.5 i prestani se bojati gubitka informacija. Bolje je imati model koji pogađa suštinu nego onaj koji pamti šum. Ako tvoj model i dalje griješi, pogledaj kako model uči iz sopstvenih grešaka i koriguj arhitekturu.
Da li moram koristiti skupe GPU-ove za ovo?
Ne nužno, ali budi spreman na čekanje. Ako koristiš stare kartice, podešavanje će trajati vječnost. Alternativa je ‘Scavenging’ – potraži polovne serverske kartice (poput Tesle T4 ili V100) na oglasima. Samo ih dobro očisti od prašine i promijeni termalnu pastu; gunk koji se nakuplja u hladnjacima može smanjiti efikasnost za 30%.
Mogu li automatizovati cijeli proces tuninga?
Možeš, ali nemoj. Ako ne razumiješ zašto se model ponaša na određeni način, automatizacija će samo brže proizvesti smeće. Prvih deset iteracija uradi poluručno da osjetiš kako model reaguje na promjene parametara. To je tvoja ‘skola’ inženjeringa.
Anatomija jednog promašaja: Zašto tvoj tuning ne radi
Zamislite ovo: Proveli ste 12 sati podešavajući parametre, GPU je vrištao, struja je gorila, a rezultat je gori nego na početku. Zašto? Zato što ste ignorisali ‘Data Leakage’. Ako si slučajno ubacio podatke iz test seta u trening set tokom tuninga, tvoji rezultati su lažni. Za šest mjeseci, kada tvoj model krene u produkciju, on će se raspasti kao kula od karata jer nikada nije vidio stvarne podatke bez pomoći. To je finansijski rizik koji firme košta milione. Popravi to odmah ili ugasi računar. Koristi fiksne seed-ove za random generatore (npr. `numpy.random.seed(42)`) tako da tvoji eksperimenti budu ponovljivi. Bez ponovljivosti, ti si samo alhemičar, a ne inženjer.
Fizika optimizacije: Zašto wood-glue logika ovdje ne prolazi
U stolarstvu, više ljepila znači jači spoj (do određene mjere). U AI tuningu, ‘više’ svega obično znači katastrofu. Razmislite o ‘Stochastic Gradient Descent’ (SGD) metodi kao o loptici koja se kotrlja niz planinu. Ako je Learning Rate prevelik, loptica će preskočiti dolinu (minimum) i završiti na drugom brdu. Ako je premali, zaglaviće se u prvoj rupi i nikada neće naći najnižu tačku. To je čista fizika gradijenata. Moraš podesiti ‘momentum’ tako da tvoja loptica ima dovoljno inercije da prođe kroz male rupe, ali ne toliko da izleti sa staze. Kao što bi rekli u radionici: ‘Mjeri triput, sijeci jednom’. U kodu to znači: ‘Loguj sve, tuniraj polako’.
