ReLu ili Sigmoid? Podesi activation function bez muke
Prestani koristiti Sigmoid kao ‘univerzalni alat’
Prekini odmah. Ako i dalje misliš da je Sigmoid tvoj najbolji prijatelj za svaki sloj neuralne mreže, tvoj model je osuđen na propast i sporu smrt kroz ‘vanishing gradient’. To je marketinška laž starih udžbenika. Ako želiš da tvoj algoritam zapravo nauči nešto, a ne da se vrti u krug dok ti troši struju i živce, moraš shvatiti hemiju iza aktivacijskih funkcija. Ti biraš između zarđalog čekića i hirurškog skalpela. Ovaj vodič ti daje znanje da ne spališ sate treniranja modela na gluposti koje su prevaziđene još 2012. godine.
Sigmoid: Stari alat koji gubi snagu
Sigmoid funkcija je kao onaj stari ključ u radionici koji je nekad otvarao sve, a sad samo preskače. Ona sabija ulazne vrijednosti u uski raspon između 0 i 1. Zvuči logično za vjerovatnoću, ali unutar dubokih slojeva, to je katastrofa. Kada vrijednosti postanu jako velike ili jako male, nagib funkcije postaje gotovo ravan. Šta to znači za tvoj kod? Tvoj gradijent nestaje. Mreža prestaje da uči jer ‘ispravka greške’ postaje toliko mala da je računar ignoriše. Ako ne vjeruješ, pogledaj kako se loš dataset dodatno pogoršava kada mu dodaš pogrešnu matematiku. Sigmoid ostavi isključivo za izlazni sloj kod binarne klasifikacije. Nigdje drugdje.
WARNING: Nikada ne koristi Sigmoid u skrivenim slojevima (hidden layers) mreže sa više od 3 nivoa. Zidanje gradijenta će pasti na nulu brže nego što tvoj GPU stigne da se zagrije, uzrokujući potpunu stagnaciju učenja. Provjeri napon logike prije nego klikneš ‘run’.
ReLu: Zašto je ovo ‘zlatni standard’ u radionici
ReLu (Rectified Linear Unit) je jednostavna kao sjekira, ali efikasna. Ako je broj negativan, izlaz je nula. Ako je pozitivan, izlaz je taj isti broj. Nema komplikacija. Nema sabijanja. To znači da gradijent ne nestaje. Mreža se trenira i do šest puta brže nego sa Sigmoidom. Osjetit ćeš to po zvuku ventilatora na tvom laptopu – kraće će brujati. Ali, pazi se ‘Dying ReLu’ problema. Ako previše neurona ode u nulu, oni se nikada neće ‘probuditi’. To je kao kad ti se osigurač pokvari i više ne propušta struju. 
Fizika aktivacije: Šta se dešava ‘ispod haube’
Zamisli aktivacijsku funkciju kao ventil na cijevi. Sigmoid pokušava da balansira pritisak tako što ga stalno guši, dok ReLu ili potpuno zatvara ventil ili ga otvara do kraja. Kod dubokog učenja, želimo protok. Kada biraš funkciju, ti zapravo definišeš kako će se informacija transformisati kroz slojeve. Ako se baviš kompleksnim stvarima poput NLP inženjeringa, svaki pogrešan izbor funkcije te košta preciznosti. ReLu dominira jer je računski jeftin. Tvoj procesor ne mora računati eksponente kao kod Sigmoida, već samo provjerava da li je broj veći od nule. Prosto.
Anatomija promašaja: Šta se desi kad pogriješiš
Opisat ću ti haos koji nastaje. Zamisli da treniraš model 48 sati. Ostavio si Sigmoid u svim slojevima. Nakon dva dana, tvoja ‘loss’ funkcija stoji zakucana na 0.69. Ne mrda. To nije zato što je model glup, nego zato što gradijent ne može da se probije kroz ‘zasićene’ slojeve. To izgleda kao da pokušavaš progurati gustu mast kroz tanku slamku. Na kraju ćeš dobiti model koji pogađa nasumično, trošeći resurse koje si mogao uštedjeti da si koristio trikove za uštedu cloud resursa. Ako vidiš da ti se preciznost ne mijenja nakon prvih 10 epoha, baci taj Sigmoid u smeće.
Da li je ReLu uvijek bolji izbor?
U 95% slučajeva za skrivene slojeve, odgovor je DA. Ali, ako tvoj model pati od ‘mrtvih neurona’, probaj Leaky ReLu. On dopušta mali protok informacija čak i za negativne brojeve. To je kao mala rupa na ventilu koja sprečava da sistem potpuno zamrzne. Kao što bi rekao stari majstor u IT firmi: ‘Bolje da malo curi nego da skroz pukne’.
Kako podesiti parametre bez muke?
Ne pogađaj. Kreni sa standardnim ReLu-om i He inicijalizacijom težina. To je dobitna kombinacija za 2026. godinu. Ako primijetiš da model ‘halucinira’ ili ne daje tačne odgovore, možda nije problem u funkciji već u temperature parametru ili lošim podacima. DIY pristup znači da moraš prljati ruke testiranjem, a ne samo kopirati kod sa Stack Overflow-a.
Zaključak: Tvoj plan za vikend projekat
Nemoj se plašiti da eksperimentišeš, ali radi to pametno. Sigmoid je za vjerovatnoće na kraju puta, ReLu je motor koji te vozi do tamo. Ako želiš da tvoj chatbot ili klasifikator slika radi kako treba, postavi ReLu u sve skrivene slojeve, dodaj mali ‘dropout’ da spriječiš overfitting i prati kako tvoj ‘loss’ pada kao kamen u vodu. To je osjećaj pravog majstorstva. Sad ugasi ovaj tekst, otvori svoj editor i zamijeni te funkcije. Rezultati će ti reći sve što trebaš znati.

![Shvati Transformer arhitekturu bez matematike [2026 Vodič]](https://aiskola.org/wp-content/uploads/2026/03/Shvati-Transformer-arhitekturu-bez-matematike-2026-Vodic.jpeg)

