Kako vještačka inteligencija u vojsci mijenja rat

Vjerujete da je AI u vojsci nekakav Terminator koji maršira ulicama? To je prva laž koju trebate izbrisati iz glave. Realnost je mnogo prljavija, tiša i oslanja se na hiljade linija koda koje se izvršavaju u vlažnim serverskim sobama dok vi spavate. Ako mislite da je ovo samo softverski update za dronove, griješite. Ovo je potpuni remont načina na koji se sila primjenjuje, gdje milisekunda kašnjenja znači razliku između hirurški preciznog udara i međunarodnog incidenta. Vi, kao neko ko prati tehnologiju, morate shvatiti da se pravila mijenjaju dok mi pričamo o tome.

Zaboravite na marketing koji kaže da će AI ‘neometano’ (seamlessly) donositi odluke. To ne postoji. Postoji samo matematika pod pritiskom. Kada se senzori na terenu zaprljaju blatom ili ih zaguši dim, AI model počinje da ‘halucinira’ baš kao i ChatGPT kada ga pitate za recept, samo što ovdje nema dugmeta za brisanje. Svaki operater koji drži prst na obaraču mora znati kako da prepozna trenutak kada bot prestane biti koristan i postane opasan.

Algoritmi na prvoj liniji: Nije to naučna fantastika, to je statistika pod pritiskom

Da biste razumjeli moderni rat, morate osjetiti miris pregrijane elektronike u komandnom centru. Čujete onaj visoki ton ventilatora koji se bori sa 90 stepeni Celzijusa? To je zvuk procesora koji pokušavaju klasifikovati objekte na satelitskom snimku. Nije to nikakva ‘magija’. To su vektori i matrice. Ako ste ikada probali da instalirate AI na Linux preko komandne linije, znate koliko je sistem krt. Jedna pogrešna biblioteka i sve pada. Zamislite to na terenu gdje nema optičkog interneta.

Najveći problem danas nije nedostatak vještačke inteligencije, već višak loših podataka. Senzori šalju terabajte informacija. Čovjek to ne može obraditi. AI tu ‘uskače’ da filtrira buku, ali tu nastaje zamka. Ako model nije treniran na realnim podacima s ratišta, on će zamijeniti traktor za tenk. To se dešava jer su ‘težine’ u neuronskoj mreži pogrešno kalibrisane. Donošenje odluka u ratu zahtijeva jasnu liniju odgovornosti (accountability) koju većina današnjih sistema još uvijek nema. Pitanje za vas: Ko ide na sud kada bot pogriješi? Programer ili general?

WARNING: Kritična tačka sistema je ‘latency’ (kašnjenje). U autonomnim sistemima, kašnjenje od 200ms može dovesti do sudara drona sa sopstvenom jedinicom. Nikada ne vjerujte bežičnoj vezi koja nije enkriptovana i testirana na ometanje. Shvatite da 120V u vašoj radionici nije ništa spram elektromagnetnog pulsa koji sprži nezaštićenu elektroniku u sekundi.

Taktički tablet sa AI klasifikacijom ciljeva i termalnim senzorima u borbenim uslovima.

Crna kutija rata: Zašto AI donosi odluke koje ne razumijemo?

Hajde da pričamo o fizici žaljenja. Kada vojni AI sistem označi metu, on to radi na osnovu korelacija koje su ljudskom mozgu nevidljive. To zovemo ‘Black Box’ problemom. U mojoj praksi, vidio sam sisteme koji su radili savršeno dok nismo promijenili ugao sunca za 10 stepeni. Odjednom, sjenke su postale neprijatelji. To je trenutak kada shvatite da AI ne ‘vidi’ – on samo računa vjerovatnoću. Ako ne znate objasniti logiku iza odluke bota, ne smijete mu dati dozvolu za rad. Tačka.

Da li AI može samostalno odlučiti o napadu?

Kratak odgovor: Može, ali ne bi smio. Tehnički, sistemi poput ‘Llama 4’ (ako bi bili modifikovani) mogu generisati sekvence komandi u mikrosekundama. Ali, etika ovdje nije samo filozofija; to je sigurnosni protokol. Bez ‘Human-in-the-loop’ pristupa, rizikujete sistemski kolaps. Kao što ne biste dopustili da se vaš devops pipeline vrti bez nadzora, tako ne smijete pustiti ni borbeni algoritam. Autonomija bez kontrole je samo skupi način da napravite grešku koju ne možete popraviti.

Anatomija katastrofe: Kada podaci ‘lažu’ na terenu

Opisat ću vam scenario koji se desio na jednom testiranju prošle godine. Model je bio ‘savršen’ na simulacijama. Došli smo na teren. Prašina je prekrila sočiva kamera. Umjesto da sistem prijavi grešku, on je počeo ‘popunjavati’ praznine u pikselima koristeći generativne algoritme. Napravio je ‘duha’ – metu tamo gdje je nije bilo. To je ono što dobijete kada hranite sisteme lošim podacima ili ih tjerate da pogađaju tamo gdje trebaju mjeriti.

Sanding (brušenje) podataka je dosadan posao. Vaša ruka će boljeti od čišćenja tabela, ali ako to preskočite, vaš model je smeće. U vojnom kontekstu, to čišćenje znači filtriranje elektronskog ometanja. Ako model ne prepozna da ga neprijatelj ‘truje’ lažnim GPS signalima, on će odvesti dron pravo u planinu. To nije kvar hardvera. To je pobjeda neprijateljskog koda nad vašim. Uvijek provjerite aktivacione funkcije svog modela prije nego što ga pustite u produkciju.

Zašto je ‘Edge Computing’ bitniji od samog modela?

Ne možete se oslanjati na ‘Cloud’ usred šume. Ako vaš AI mora slati podatke u data centar u drugu državu da bi prepoznao tenk, vi ste već izgubili. Vojni AI mora biti ‘lokalan’. To znači da morate pretvoriti hardver u male, robusne servere koji rade u blatu. Potrebna je snaga, ali i hlađenje. Jeste li ikada pokušali ohladiti procesor u pustinji? To je pravi inženjerski izazov, a ne pisanje koda u klimatizovanoj kancelariji.

Zaključak: Povratak na osnove i ‘Code Reality’

Na kraju dana, AI u vojsci je alat, baš kao i francuski ključ u vašoj garaži. Ako ga koristite pogrešno, slomit ćete i alat i ono što popravljate. Kao Code Inspector, moja poruka je jasna: ne vjerujte sjajnim prezentacijama. Vjerujte stres-testovima, vjerujte protokolima o privatnosti i sigurnosnim protokolima za sistemski rizik. Rat se više ne vodi samo mecima, već i sposobnošću da vaš kod ostane funkcionalan kada sve ostalo padne. Ne dajte da vas zavaraju ‘game-changer’ marketinški trikovi. U stvarnom svijetu, pobjeđuje onaj ko ima bolje osigurane podatke i hladnije procesore. Držite se osnova, provjeravajte logove i nikada, ali baš nikada, ne ostavljajte bota bez nadzora.

Slični tekstovi

Komentariši

Vaša email adresa neće biti objavljivana. Neophodna polja su označena sa *