Ne troši resurse: Česte greške kod tuninga AI modela
Zašto tvoj model troši struju, a ne uči ništa: Istina o tuning-u
Prekini da vjeruješ marketinškim bajkama da ti treba H100 klaster da bi dobio koristan AI model. To je laž koja te košta hiljade dolara. Ako tvoj proces tuninga izgleda kao bacanje sirovih podataka u GPU dok se server ne usija, radiš to pogrešno. Ti si u digitalnoj radionici, a ne u kockarnici. Većina ljudi misli da je ‘više podataka’ rješenje za sve, ali to je kao da pokušavaš popraviti motor sipanjem previše ulja – samo ćeš napraviti nered i spaliti resurse. Tvoj cilj nije da model ‘zna sve’, nego da radi specifičan posao bez gubljenja tvog vremena i novca. Ako ne paziš na detalje, tvoj model će završiti kao ‘overfitted’ krš koji ponavlja fraze bez smisla. Nemoj biti taj lik. Prije nego što pokreneš skriptu, provjeri da li si uradio osnovni uradi sam AI audit svoje infrastrukture. Štednja počinje prije prve linije koda.
Prljava istina o tvojim podacima: Zašto kvantitet ubija kvalitet
Tvoji podaci vjerovatno smrde na digitalnu trulež. Ako ubaciš 10.000 loše formatiranih JSON linija, dobićeš 10.000 puta gori model. Osjetiš li taj miris spaljenog vremena? To je miris tuninga bez čišćenja podataka. Svaka linija smeća u tvom datasetu je kao pijesak u ležajevima – uništiće finu mehaniku modela. Umjesto da juriš milione primjera, fokusiraj se na 500 savršenih. Kvalitetan dataset treba da bude ‘taktilan’, precizan i bez duplika. Često je pametnije koristiti transfer learning nego pokušavati učiti model sve ispočetka. Manje je više. Zapamti to dok scrapuješ internet tražeći spas. Ako tvoji podaci nisu čisti, tvoj model će ‘halucinirati’ brže nego što tvoj GPU može da se ohladi. To je čist gubitak resursa koji niko ne može priuštiti.
WARNING: Nikada ne pokreći tuning na javnim cloud instancama bez postavljenog ‘budget cap-a’. Jedna greška u loop-u može ti skinuti 500 KM sa kartice prije nego što popiješ kafu. Shocks on the bill are real.
Kratki spoj u glavi: Zašto learning rate nije ‘gas do daske’
Podešavanje ‘learning rate-a’ je kao rad sa kvačilom na starom kamionu. Ako naglo pustiš, motor će se ugasiti. Ako previše držiš, spalićeš lamelu. Većina početnika postavi previsok learning rate misleći da će model brže naučiti. Rezultat? Model ‘preskače’ optimalna rješenja i luta po gubitku kao pijanac po mraku. Treba ti mirna ruka. Mala stopa učenja. To je tajna. Koristi ‘learning rate scheduler’ da usporiš proces kako model postaje pametniji. Ako vidiš da tvoj ‘loss curve’ skače kao EKG pacijenta u panici, stani. Nešto nije u redu sa tvojim ‘top-p’ ili sampling parametrima. Možeš naučiti kako da podesiš top-p sampling da izbjegneš te gluposti. Ne forsiraš mašinu, nego je navodiš. 
Fizika žaljenja: Šta se desi kada model ‘pregori’
Overfitting je tihi ubica tvojih projekata. To je onaj trenutak kada tvoj model na testovima pokazuje 99% tačnosti, ali u realnom svijetu ne zna da sastavi prostopreširenu rečenicu. Zašto? Zato što si ga natjerao da nauči tvoje podatke napamet, umjesto da razumije logiku iza njih. To je kao da dijete nauči odgovore na testu, ali ne zna sabirati. U digitalnom svijetu, to znači da si bacio sate GPU vremena na model koji je beskoristan van tvoje laboratorije. Da bi to izbjegao, moraš uvesti ‘dropout’ ili ‘weight decay’. To su tvoji sigurnosni ventili. Ako ih ignorišeš, tvoj model će postati krhak kao loše kaljeno staklo. Puknuće pri prvom kontaktu sa stvarnim korisnikom. Uvijek prati validacioni set. Ako on krene da raste dok trening set pada, gasi mašinu. Odmah. Ne kvari bazu i ne troši resurse na česte probleme pri AI implementaciji koje su drugi već skupo platili.
Da li mi stvarno treba puni fine-tuning?
Vjerovatno ne. U 90% slučajeva, LoRA (Low-Rank Adaptation) je tvoj najbolji prijatelj. Umjesto da mijenjaš svih 7 milijardi parametara, ti mijenjaš samo mali dio njih. To je kao da ne mijenjaš cijelu fasadu na kući, nego samo prefarbaš ulazna vrata. Efekat je skoro isti, a trošak je smiješan. LoRA ti omogućava da radiš tuning na kućnom računaru. Ako tvoj tim insistira na ‘full parameter tuning-u’ za bazične zadatke, oni ili imaju previše para ili nemaju pojma šta rade. Provjeri kako smanjiti potrošnju struje servera koristeći ove efikasne metode.
Anatomija jednog ‘screw-up-a’: Kako smo spalili 20 sati treninga
Opisaću ti jedan klasičan promašaj. Krenuli smo u tuning bez provjere ‘tokenizacije’. Model je očekivao jedan format, a mi smo mu servirali drugi. Mašina je radila 20 sati, ventilatori su vrištali, a računi za struju su rasli. Kada smo završili, model je generisao samo simbole ‘@’ i ‘#’. Zašto? Jer nismo provjerili bazičnu kompatibilnost na samom početku. To je bio skup čas iz poniznosti. Ako preskočiš provjeru malog dijela (sample-a) prije velikog posla, zaslužuješ da izgubiš resurse. Danas koristimo skripte za validaciju koje ‘pljuju’ grešku čim vide neslaganje u formatu. To nam štedi živce. Uči na našim greškama i nauči kako da popraviš AI bagove prije nego postanu katastrofa.
Koliko RAM-a mi zapravo treba?
Svi lažu o ovome. Za model od 7B parametara, uz QLoRA (4-bitnu kvantizaciju), možeš proći sa 8GB do 12GB VRAM-a. Ako ti neko kaže da ti treba A100 za obično učenje stila pisanja, pokušava da ti proda cloud minute. Postavi ‘bitsandbytes’ biblioteku i kreni. Scrappy pristup uvijek pobjeđuje brute-force budžet. Prati uputstva za učenje AI koda kod kuće i shvatićeš da je znanje bitnije od skupog hardvera.
Gvožđe i logika: Tvoj plan za sutra
Tuning nije magija, to je zanat. Ako pristupaš tome kao majstor koji poštuje svoj alat, tvoji modeli će biti brzi, precizni i jeftini za održavanje. Ne dopusti da te zanese ‘hype’. Svaki put kad klikneš ‘run’, zapitaj se: Da li sam očistio podatke? Da li mi je stopa učenja prevelika? Da li sam postavio sigurnosne kočnice? Ako je odgovor ‘ne’, isključi računar i idi prošetaj. Resursi su ograničeni, tvoje vrijeme je ograničeno. Troši ih pametno. I ne zaboravi, čak i kad pogriješiš, natjeraj model da uči na greškama, a ne samo tebe. To je jedini put do prave AI automatizacije u 2026. godini.

![Popravi šut uz AI: Analiziraj performance telefonom [DIY]](https://aiskola.org/wp-content/uploads/2026/03/Popravi-sut-uz-AI-Analiziraj-performance-telefonom-DIY.jpeg)