Etika i autonomno oružje: Ko kontroliše AI vojsku?
Mit o čistom ratu: Zašto pametne bombe zapravo ne misle
Prestanite vjerovati u marketinške laži o hirurški preciznim udarima. U stvarnosti, kada se metal zagrije na 800 stepeni Celzijusa i miris sprženog ozona ispuni komandnu sobu, ne postoji algoritam koji može ‘osjetiti’ razliku između cilja i kolateralne štete ako mu vi niste postavili barijere. Vi kontrolišete ove sisteme, ili oni kontrolišu vas. Nema treće opcije. Ako planirate ući u svijet odbrane ili sigurnosti, morate razumjeti da softverski bag u autonomnom dronu nije isto što i greška u vašem Excelu. Ovdje nema ‘undo’ dugmeta. Problem je u tome što većina ljudi vjeruje da je human-in-the-loop (čovjek u krugu odlučivanja) garant sigurnosti. To je opasna zabluda ako taj čovjek ima samo 200 milisekundi da potvrdi odluku koju je donijela mašina. Morate znati zašto AI ne smije sam donositi odluke, jer jednom kada ‘oslobodite’ kod, fizika i inercija preuzimaju volan.
Anatomija algoritamskog kvara: Zašto senzori ‘lažu’ pod pritiskom
Zamislite zvuk zujanja hiljada malih propelera. To nije zvuk budućnosti; to je zvuk hardvera koji se oslanja na podatke. Ako ti podaci procure ili su pogrešno procesuirani, sistem postaje smrtonosna igra slučaja. U svojoj radionici ste možda naučili da ako krivo izmjerite dasku, samo kupite novu. U vojnom AI sektoru, ako vaš model ima loše ulazne podatke, on će ‘ubiti’ pogrešan piksel. Ključno je da naučite kako da sredite podatke uz AI agente prije nego što ih uopšte pustite blizu senzora. Svaki senzor ima svoj šum. Taj šum, ako se ne filtrira, može aktivirati sistem za odbranu u pogrešnom trenutku. Kao inspektor koda, kažem vam: ne vjerujte kameri koja nije prošla kroz sigurnosni protokol. Ako vaš model previše griješi u simulaciji, on će u realnosti izazvati katastrofu. Rješenje? Morate hitno podesiti temperature parametar kako biste kontrolisali nivo predvidljivosti sistema.
UPOZORENJE: Nikada ne testirajte autonomne skripte koje imaju pristup mrežnim relejima bez fizičkog prekidača (Kill-Switch). Softverski ‘stop’ gumb će zakazati u 15% slučajeva zbog latencije mreže. Fizički prekid strujnog kola je jedina garancija prestanka rada.

Zašto se etika ‘lomi’ na liniji koda: Problem sa ReLU funkcijom
Možda zvuči dosadno, ali etika u 2026. godini se ne piše u filozofskim knjigama, već u izboru aktivacijske funkcije vašeg modela. Da li ćete koristiti ReLU ili Sigmoid funkciju direktno određuje kako će vaš bot kategorisati metu. ReLU može ‘ugasiti’ neurone prebrzo, stvarajući ‘mrtve zone’ u odlučivanju gdje mašina jednostavno prestane prepoznavati prepreke. To je tehnički detalj koji razdvaja pametnu odbranu od nekontrolisane sile. Ako ste junior koji želi da napreduje u AI karijeri, ne učite samo promptove. Učite matematiku iza gubitka podataka. Svaki put kada mašina donese odluku, ona prati ‘decision logiku’. Ako ne znate kako objasniti tu logiku, vi niste inženjer, vi ste samo putnik u vozu koji juri ka zidu. Vaša plata u ovom sektoru neće zavisiti od toga koliko brzo kucate, već od toga koliko precizno možete dokazati da vaš bot ne griješi pod stresom.
Anatomija katastrofe: Kako je ‘jednostavan’ update srušio simulaciju
Sjedite u stolici, dlanovi su vam znojni. Upravo ste pustili novi batch koda u sistem za praćenje. Šta se desilo? Ništa. I to je bio problem. Tišina. U mom iskustvu, najopasniji su oni sistemi koji ‘izgledaju’ kao da rade savršeno dok se u pozadini ne desi termalni runaway. Desilo se to u jednoj simulaciji 2025. godine: dron je prepoznao sjenku drveta kao neprijateljski snajper jer je neko zaboravio normalizovati osvjetljenje u datasetu. To je ‘Anatomija screw-up-a’ koju niko ne želi priznati. Ako preskočite validaciju, vaša AI vojska će početi da ‘vidi’ duhove. Zato je važno da znate ko je kriv i kako osigurati odgovornost. Ne dozvolite da vas tim ubijedi da je ‘sistem prekompleksan’ za objašnjenje. Svaki bit mora imati vlasnika. Ako radite u Sarajevu ili bilo gdje na Balkanu, potražite najbolje IT obuke koje se fokusiraju na sigurnost, a ne samo na generisanje slika. Budućnost ratovanja, nažalost, mijenja sve, i vi morate znati kako AI mijenja rat da biste znali kako da ga spriječite ili barem učinite etičnijim.
Da li autonomno oružje može imati ‘savjest’?
Odgovor je kratak: Ne. Savjest je ljudska osobina koja zahtijeva razumijevanje konteksta koje mašina nema. Mašina ima samo vjerovatnoću. Ako je vjerovatnoća pogotka 98%, ona puca. Onih 2% su ljudski životi. Zato se u 2026. insistira na alatima za brzu provjeru sistemskih rizika. Ne ostavljajte to slučaju. Budite onaj lik u radionici koji tri puta provjerava kočnice prije nego što sjedne u auto. Etika nije luksuz; to je najvažniji dio vašeg tech-stacka. Bez nje, vi ste samo programer koji gradi sopstveni kavez. Naučite kako etično koristiti AI i osigurajte da vaša karijera traje duže od jednog sudskog procesa. Na kraju dana, važno je samo jedno: ko drži prst na prekidaču kad se ugase svjetla u server sali?

