Nem éheznek meg, nem félnek, nem felejtik el a parancsot – nyilatkozta egy amerikai katonai szakértő. Nem tökéletesen felkészített tengerészgyalogosokról, virtuális világokon edződött pilótákról, francia idegenlégiósokról, hanem harci robotokról formált véleményt.
Talán a távirányított drónok szemléltetik legjobban az ember nélküli légi járműveket (unmanned aerial vehicles, UAV), a bennük rejlő potenciállal és hibáikkal. Például azt, hogy harci helyzetben gyakorlatilag esélytelenek a képzett pilóták által vezetett gépekkel szemben.
A leadott jelek negyed másodperc vagy nagyobb késéssel érkeznek a többezer kilométer távolságra lévő irányítóközpontba. Ilyen csekély, szinte érzékelhetetlen késés is végzetes következményekkel jár.
Automatikus és autonóm rendszerek
A BAE Systems júliusban bemutatott Taranisa megoldhatja a problémát: a brit védelmi minisztérium szerint „teljesen autonóm” gép mélyen berepül az ellenséges területre információt gyűjteni, bombákat dob le, „ember által vezetett és ember nélküli harci járművekkel szemben egyaránt megvédi önmagát.” Úgy vélik, szinte nincs is szüksége irányítói beavatkozásra.
Más – nemcsak levegőben működő – rendszereket eleve úgy terveznek, hogy automatikusan tüzet nyissanak rakétákra (Phalanx), vagy a humán operátor betanítja a gépet, tőle tanulja meg, mikor lőjön, mikor nem (See-Shoot).
Az amerikai Phalanx, az izraeli See-Shoot, valamint a Taranis jól szemléltetik az automatikus és autonóm rendszerek közötti csekélynek tűnő, de mégis rendkívül fontos különbséget: előbbiek valamilyen jelzésre (gombnyomásra stb.) várnak, és csak azt követően hajtanak végre egy-egy utasítást (például az üdítőautomata kiadja a kért folyadékot), utóbbiak viszont a környezetet tanulmányozva, sokkal bonyolultabb feladatsorokat abszolválnak. Többezer megfigyelést végeznek, szinte végtelen az input-állapotok száma, azokat feldolgozva döntenek a lehető legoptimálisabb output mellett. Elvileg valahogy úgy, ahogy az ember hozza meg döntéseit.
Elektromechanikus és biológiai gépek
A Carnegie Mellon Egyetem Robotika Intézete a Pentagon által finanszírozott projekt keretében csatatéren önmagától navigáló hatkerekű harci járművet fejleszt (Crusher). A rendszer műholdas térképről tölti le a legfontosabb információkat, majd sztereó videókamerák 3D-s képet készítenek a terepről. A kép minősége lehetővé teszi a részletes tervezést, az akadályok elkerülését. A pontosítást lézeres mérőeszközök végzik. A járművet a tervek szerint élőlények számára kiemelten veszélyesnek minősített környezetekben fogják bevetni.
A jövő hadiszerkentyűi akár egész fura formát is ölthetnek, mint például a Boston Dynamics (DARPA által támogatott) BigDogja: elsődleges rendeltetése ugyan a katonai egység felszerelésének szállítása, ám a négylábú „nagykutya” bárhova elmegy, ahova ember és állat nem. Mivel egyensúlyi állapotát szenzorok és motorok automatikusan fenntartják, göröngyös, buckákkal és más akadályokkal teli terepet is abszolvál.
A DARPA műhelyeiben még egy különös ötlet fogalmazódott meg: repülő rovarokat biológiai UAV-ként lehetne használni. Az autonómia adott, az állatokba pirinyó elektromechanikus kütyüt implantálnának, és tökéletes felderítőmunkát végeznének. Az elképzelés megosztja a kutatókat…
Taranis, Crusher és BigDog tökéletesen illusztrálják a fejlesztések – a hadviselést elvileg radikálisan megváltoztató – irányát: cél a védelmi rendszerek autonómiája, valamilyen szintű (a közeljövőben nyilvánvalóan csak korlátozott) önálló döntéshozásra képes gépek.
Kié a felelősség az ámokfutó robot tetteiért?
A legmodernebb arzenállal rendelkező országok katonai szakértői egyrészt pozitívan ítélik meg az autonómiát (nagyobb hatótávolság, hatékonyabb gépek, sokkal kevesebb halott), másrészt a rendszerek komoly erkölcsi és jogi problémákat vetnek fel.
Például meghibásodnak, és összevissza cselekednek. A megbízhatósági teszt, a felülvizsgálat és érvényesítés, a V&V (verification and validation) az Apollo program óta alig változott: a rendszer összes lehetséges állapotát addig tesztelik szisztematikusan, amíg 100 százalékosnak nem minősítik. Rengeteg pénzbe kerül – a harci repülők fele eleve szoftverekre megy el, ehhez adjuk hozzá a V&V-t, és közben azt is vegyük figyelembe, hogy az autonóm rendszerek szinte végtelen input-állapottal rendelkeznek. Magyarán a bevett tesztelési módszer előbb-utóbb elavul. Célszerűbb lenne olyan szoftvert fejleszteni, amely „előrevetíti” a tesztfolyamatot. Talán akkor is, ha a gép 100 helyett „csak” 99,99 százalékban minősülne megbízhatónak, bár erről megoszlanak a vélemények.
Beláthatatlan következményekkel járhat, hogy míg az ember azonnal felmér egy szituációt, és a feléje közelítő személyekben felismeri az ellenséges szándékot, az autonóm robot lehet, hogy azonnal tüzet nyit, és ártatlan civileket gyilkol halomra. Kié ilyenkor a felelősség? Az övé, az egészről mit sem tudó parancsnoké, vagy a tervezőé?
Elrugaszkodott vélemények szerint hamarosan úgy kell kezelni őket jogilag, mint a „kvázi-ágenseket”, például a gyerekeket, de az álláspontot a legtöbb szakértő elveti: a robotrendszerek a közeljövőben semmiféle emberi értelemben vett tudatossággal nem fognak rendelkezni, így felelősségre sem vonhatók.