Harcirobotok a jövőből

2010.12.13. 06:00 ferenck

Nem éheznek meg, nem félnek, nem felejtik el a parancsot – nyilatkozta egy amerikai katonai szakértő. Nem tökéletesen felkészített tengerészgyalogosokról, virtuális világokon edződött pilótákról, francia idegenlégiósokról, hanem harci robotokról formált véleményt.

Talán a távirányított drónok szemléltetik legjobban az ember nélküli légi járműveket (unmanned aerial vehicles, UAV), a bennük rejlő potenciállal és hibáikkal. Például azt, hogy harci helyzetben gyakorlatilag esélytelenek a képzett pilóták által vezetett gépekkel szemben.

A leadott jelek negyed másodperc vagy nagyobb késéssel érkeznek a többezer kilométer távolságra lévő irányítóközpontba. Ilyen csekély, szinte érzékelhetetlen késés is végzetes következményekkel jár.

Automatikus és autonóm rendszerek

A BAE Systems júliusban bemutatott Taranisa megoldhatja a problémát: a brit védelmi minisztérium szerint „teljesen autonóm” gép mélyen berepül az ellenséges területre információt gyűjteni, bombákat dob le, „ember által vezetett és ember nélküli harci járművekkel szemben egyaránt megvédi önmagát.” Úgy vélik, szinte nincs is szüksége irányítói beavatkozásra.

Más – nemcsak levegőben működő – rendszereket eleve úgy terveznek, hogy automatikusan tüzet nyissanak rakétákra (Phalanx), vagy a humán operátor betanítja a gépet, tőle tanulja meg, mikor lőjön, mikor nem (See-Shoot).

Az amerikai Phalanx, az izraeli See-Shoot, valamint a Taranis jól szemléltetik az automatikus és autonóm rendszerek közötti csekélynek tűnő, de mégis rendkívül fontos különbséget: előbbiek valamilyen jelzésre (gombnyomásra stb.) várnak, és csak azt követően hajtanak végre egy-egy utasítást (például az üdítőautomata kiadja a kért folyadékot), utóbbiak viszont a környezetet tanulmányozva, sokkal bonyolultabb feladatsorokat abszolválnak. Többezer megfigyelést végeznek, szinte végtelen az input-állapotok száma, azokat feldolgozva döntenek a lehető legoptimálisabb output mellett. Elvileg valahogy úgy, ahogy az ember hozza meg döntéseit.

Elektromechanikus és biológiai gépek

A Carnegie Mellon Egyetem Robotika Intézete a Pentagon által finanszírozott projekt keretében csatatéren önmagától navigáló hatkerekű harci járművet fejleszt (Crusher). A rendszer műholdas térképről tölti le a legfontosabb információkat, majd sztereó videókamerák 3D-s képet készítenek a terepről. A kép minősége lehetővé teszi a részletes tervezést, az akadályok elkerülését. A pontosítást lézeres mérőeszközök végzik. A járművet a tervek szerint élőlények számára kiemelten veszélyesnek minősített környezetekben fogják bevetni.

A jövő hadiszerkentyűi akár egész fura formát is ölthetnek, mint például a Boston Dynamics (DARPA által támogatott) BigDogja: elsődleges rendeltetése ugyan a katonai egység felszerelésének szállítása, ám a négylábú „nagykutya” bárhova elmegy, ahova ember és állat nem. Mivel egyensúlyi állapotát szenzorok és motorok automatikusan fenntartják, göröngyös, buckákkal és más akadályokkal teli terepet is abszolvál.

A DARPA műhelyeiben még egy különös ötlet fogalmazódott meg: repülő rovarokat biológiai UAV-ként lehetne használni. Az autonómia adott, az állatokba pirinyó elektromechanikus kütyüt implantálnának, és tökéletes felderítőmunkát végeznének. Az elképzelés megosztja a kutatókat…        

Taranis, Crusher és BigDog tökéletesen illusztrálják a fejlesztések – a hadviselést elvileg radikálisan megváltoztató – irányát: cél a védelmi rendszerek autonómiája, valamilyen szintű (a közeljövőben nyilvánvalóan csak korlátozott) önálló döntéshozásra képes gépek.

Kié a felelősség az ámokfutó robot tetteiért?

A legmodernebb arzenállal rendelkező országok katonai szakértői egyrészt pozitívan ítélik meg az autonómiát (nagyobb hatótávolság, hatékonyabb gépek, sokkal kevesebb halott), másrészt a rendszerek komoly erkölcsi és jogi problémákat vetnek fel.

Például meghibásodnak, és összevissza cselekednek. A megbízhatósági teszt, a felülvizsgálat és érvényesítés, a V&V (verification and validation) az Apollo program óta alig változott: a rendszer összes lehetséges állapotát addig tesztelik szisztematikusan, amíg 100 százalékosnak nem minősítik. Rengeteg pénzbe kerül – a harci repülők fele eleve szoftverekre megy el, ehhez adjuk hozzá a V&V-t, és közben azt is vegyük figyelembe, hogy az autonóm rendszerek szinte végtelen input-állapottal rendelkeznek. Magyarán a bevett tesztelési módszer előbb-utóbb elavul. Célszerűbb lenne olyan szoftvert fejleszteni, amely „előrevetíti” a tesztfolyamatot. Talán akkor is, ha a gép 100 helyett „csak” 99,99 százalékban minősülne megbízhatónak, bár erről megoszlanak a vélemények.

Beláthatatlan következményekkel járhat, hogy míg az ember azonnal felmér egy szituációt, és a feléje közelítő személyekben felismeri az ellenséges szándékot, az autonóm robot lehet, hogy azonnal tüzet nyit, és ártatlan civileket gyilkol halomra. Kié ilyenkor a felelősség? Az övé, az egészről mit sem tudó parancsnoké, vagy a tervezőé?

Elrugaszkodott vélemények szerint hamarosan úgy kell kezelni őket jogilag, mint a „kvázi-ágenseket”, például a gyerekeket, de az álláspontot a legtöbb szakértő elveti: a robotrendszerek a közeljövőben semmiféle emberi értelemben vett tudatossággal nem fognak rendelkezni, így felelősségre sem vonhatók.

22 komment

Címkék: robotok mesterséges intelligencia

A bejegyzés trackback címe:

https://agens.blog.hu/api/trackback/id/tr672492018

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

Zsola777 2010.12.13. 11:23:26

Volt már baleset, valami automatikus ágyúkat próbálgattak (Dél-Amerika vagy Közel-Kelet), vagy katonai bemutató volt? ...amikor az egyik elromlott, és kilőtte a mellette álló másik ágyút és 6-8 fős személyzetét. Leállítani sem tudták, csak amikor elfogyott a lőszere.

ThufirHawat 2010.12.13. 11:27:54

A legnagyobb baj és veszély forrás ezzel a koncepcióval kapcsolatban az, hogy nem igen lesz visszatartó erő egy új háborús front nyitásakor. Kit érdekelnek a robotok? Ha gazdaságilag igazolható (pozitív NPV), akkor hajrá, menjenek, lődözzék halálra az ellent. Senki nem vonul majd utcára Washington DC-ben "Hozzátok hazai robotjainkat!" táblákkal.
Szerintem nagyon megszaporodna a háborús konfliktusok száma, ha az agresszor részéről eltűnne a halálfélelem.

Cifu78 2010.12.13. 11:46:19

Jó kis összefoglaló, egy kis hibajavítás az elején, ha szabad, utána meg egy-két gondolat.

"Más – nemcsak levegőben működő – rendszereket eleve úgy terveznek, hogy automatikusan tüzet nyissanak rakétákra (Phalanx),"

A Phalanx CIWS (közellégvédelmi rendszer) több üzemmóddal is rendelkezik, képes optikai úton közvetlen kezelői irányítással is ellenfelet leküzdeni (erre főleg az ellenséges csónakok miatt van szükség, lásd USS Cole esete). A CIWS rendszer továbbá korántsem tökéletes, lásd az INS Hanit esetét, amelyet 2006-ban úgy talált el egy Hezbollah rakéta (amúgy iráni/kínai C-802), hogy a CIWS rendszere készenlétbe volt csak helyezve, de aktiválva nem volt (ellentmondó információk keringenek ennek az okáról, állítólag folyamatosan beriasztott mindenre, más forrás szerint az IDF repülőgépeinek besugárzásjelzői nem kezelték le megfelelően a Hanit radar/IFF rendszerének lekérdezését).

"Az egyaránt izraeli Phalanx..."

A Phalanx CIWS amerikai rendszer, csak Izrael is használja (az INS Hanit is rendelkezett eggyel).

"A jövő hadiszerkentyűi akár egész fura formát is ölthetnek, mint például a Boston Dynamics (DARPA által támogatott) BigDogja: a négylábú „nagykutya” bárhova elmegy, ahova ember és állat nem. "

A BigDog az emberek "mellett" megy, lévén az lenne a feladata, hogy egy raj felszerelését cipelje. Az USMC (amerikai tengerészgyalogság) pár éve például a helyiektől bérel öszvéreket a hegyvidéki járőrözéshez, hogy ugyanezt a feladatot ellássák.

[i]...irányát: cél a védelmi rendszerek autonómiája, önálló döntéshozásra képes gépek.[/i]

A felsorolt rendszerek egyike sem rendelkezik önálló döntéshozatali képességgel. A Tanaris esetén csak laza ismertető szinten mozog a dolog, nem tudni, hogy valóban képes-e lesz aktívan megvédeni magát (ie.: levegő-levegő rakétát indítani), vagy csak passzív védelemről van szó (ie.: elektronikus zavarás, csaliszórás, stb.). A Phalanx szintén nem önállóan dönt, hanem összehasonlítja az észlelt veszélyforrások feladatát a beprogramozott értékekkel. Ha megfelel a küszöbhatárnak, akkor ellenséges rakétának tekinti, és leküzdi azt. A BigDog pedig legfeljebb annyiban önálló, hogy maga képes átkelni a terepen, de amúgy meg követi a "jeladót", amit a raj egyik tagja visel.

És akkor a gondolatok:

Jelenleg az összes "harci gép" emberi felügyeletre vagy beavatkozásra szorul. Még a felvázolt UCAV-ok (ember nélküli harci jármű) is, amelyek "önállóak" alapvetően csak a beprogramozott (megadott) feladatokat követik. Önállóságuk annyiban merül ki, hogy nem kell minden parancsot egyenként bevinni, hanem csak megadni a célkoordinátákat, illetve az alapvető adatokat (ismert ellenséges légvédelmi állások pozicíója, stb.) és az alapján végrehajtja a bevetést. Ez nem tér el igazából semmiben attól, hogy ha egy robotrepülőgépet (mint a Tomahawk, Scalp, JASSM, stb.) indítanak a cél ellen. A különbség az, hogy a robotrepülőgép maga pusztítja el a célpontot, az UCAV meg csak elviszi a harci eszközt a célpont körzetébe, ott kioldja, és utána hazatér - tehát újrafelhasználható. Az UCAV előnye, hogy olcsóbb fegyverekkel képes leküzdeni ugyanazt a célt, mint a robotrepülőgép. Egy Scalp ára 1 millió euró felett van, ha egy UCAV ára mondjuk 20 millió euró, és egy-egy általa ledobott preciziós bomba ára csak 20'000 euró, akkor olyan 20 bevetés után már megtérül az UCAV ára. A másik előnye, hogy az UCAV rövidebb reakcióidővel léphet támadásba, tehát a célkörzet mondjuk van 500km-re, ha kiadják a tűzparancsot, akkor a robotrepülőgépnek kell 40-45 perc, hogy odaérjen, az UCAV-ot viszont előre lehet küldeni, hogy a célkörzet felett körözzön, és tűzparancs esetén egyből támadhat - ha pedig nincs tűzparancs, visszatér. Tehát rugalmasabb.

Jelenleg az összes "harci robot" elképzelés, ami a közeli jövőben (~20-30 év) várható, mind emberi döntésre cselekedhet csak, tehát például a bázison lesz egy kezelőpult, amelyen keresztül egy ember felügyeli a robotot, és ha szükséges, aktiválja a robot fegyvereit. A robot lehet, hogy képes lesz majd ezután maga leküzdeni az ellenfeleket, de az embernek kell megadnia az engedélyt rá, hogy megtegye.

Végül pedig utalnék a jó öreg Airbus vs. Boeing utasszállító vitára. Az Airbus-t sokan kritizálták/kritizálják azért, mert a gépei alapvetően úgy működnek, hogy a pilóta közli a számítógéppel, hogy mit akar csinálni, és a számítógép ez alapján irányítja a gépet. A Boeing esetén a pilótái a végső szó, lehetősége van közvetlenül irányítani a vezérsíkokat vagy a hajtóművet. Az Airbus esetén belép a szoftverhiba esete, amikor a programozáskor az ember hibát vétet, és ez vezethet katasztrófához. Viszont az Airbus esetén nem lehet a gépet "túlhúzni", ha a pilóta olyan manővert akar végrehajtani, ami túlterhelhetné a gépet, és ezáltal veszélybe sodorhatja, a számítógép felülbírálja az emberi utasítást. A Boeing esetén igaz, hogy az emberé a végső döntés, de megmarad az is, hogy egy hibás emberi döntés miatt adott esetben katasztrófa történjen.

Tomi1973Wien 2010.12.13. 11:53:43

...és akkor az esetlegesen meghekkelt robotokorol nem is szoltunk.....

Cifu78 2010.12.13. 11:56:05

@Zsola777: Dél-Afrikában történt, 2007-ben. 8 darab Oerlikon 35mm-es légvédelmi gépágyúval tartottak éles lőgyakorlatott földi célpontok ellen, amikor a jobb oldali ágyú, amely eredetileg manuális irányzású volt, egy besült lőszer utáni hibaelhárítás után hirtelen kifordult balra 90°-ot, és leadott egy 15-20 lövésből álló rövid sorozatot.

A részletek tovább nem ismertek, de ez alapján nem igazak azok a kiszínezett történetek, mely szerint több száz lövést adott le a gépágyú körkörösen.

www.int.iol.co.za/index.php?set_id=1&click_id=13&art_id=vn20071017062134984C689240#prof

Cifu78 2010.12.13. 12:06:00

@ThufirHawat: Ezzel az a gond, hogy a jelenlegi UCAV / UGCV (UGCV = személyzet nélküli szárazföldi harcjármű) programok mindegyik igényli a közeli emberi kiszolgálást. Tehát egy Reaper UCAV-nak a bázisa legfeljebb pár száz km-re lehet a harci területről, egy UGCV, mint a Spinner vagy az AvantGuard pedig még ennél is kisebb harci hatósugárral bír (pár tíz km). Ezek tehát nem jók arra, hogy kiváltsák az embert, csak arra, hogy előre küldjék, a katonák elé. De a frontvonalban továbbra is ott lesznek a katonák...

ferenck · http://agens.blog.hu/ 2010.12.13. 12:30:32

@Cifu78: koszonom a megjegyzeseket, korrigaltam.

XEP 2010.12.13. 12:38:34

"Beláthatatlan következményekkel járhat, hogy míg az ember azonnal felmér egy szituációt, és a feléje közelítő személyekben felismeri az ellenséges szándékot, az autonóm robot lehet, hogy azonnal tüzet nyit, és ártatlan civileket gyilkol halomra. Kié ilyenkor a felelősség? Az övé, az egészről mit sem tudó parancsnoké, vagy a tervezőé?"

Az emberek is pont így hibázhatnak hasonló helyzetben!

Pl.:Civilek és gyerekek lövése a helikopterből, ami ugye nemrég került nyilvánosságra.

ver@s kan-tár 2010.12.13. 12:49:49

@Cifu78: "Boeing esetén igaz, hogy az emberé a végső döntés, de megmarad az is, hogy egy hibás emberi döntés miatt adott esetben katasztrófa történjen." - írod.

Mármost akkor: tökéletes rendszer, az Univerzumot leszámítva, nem létezik, pontosabban szólva kreált, tudatosan fejlesztett és létrehozott rendszerek esetében nem. Az humán harcos is (vagy repülőgép-pilóta, légi irányító stb.) kudarcpotenciállal "vértezett" tényező, hiszen hibázhat. Ahogy a cikkben említett harci robotok is. Eddig a pontig pedánsan tökéletes az egyezés. Az ok-okozati vonal mérlegre vetésénél derül ki az eklatáns különbözőség: míg az emberi egyed önálló döntéshozó mechanizmusa mellett önálló élettel (azaz biofunkcionális, tapasztalati létsíkon paraméterezett tudatállapottal) bír, addig az akár távirányított, akár autonóm működésre tervezett robot, program, algoritmikus mechanizmusok - nem. Öntudatuk kölcsönzött, s mint ilyen nem létező. Semmiféle felelősséget sem az élet kioltása, sem annak kímélése tárgyában nem éreznek, mert nem is érezhetnek. Az élet maga egy programnyelv számára csupán egy jól-rosszul definiált absztrakt fogalom, amit output-döntéseknél csak mint ellenállási tényezőt képes figyelembe venni, de olyan emberinek számító végkimenetet nem képes e szempontok mentén generálni, mint a "kímélet", "haladék" és "irgalom". Ezek a humán harci szituáció megítélési gyengéi, de ettől emberiek: az ember, ha minden oka meg is van rá, nem gyilkol gépiesen, automatikusan: idegpályáin végbemenő bioelektromos folyamatok verik keresztbe egymást, mikor ezredmásodperceken mérhető késleltetéssel élnek: vagy a másik életét veszem el habozás nélkül, vagy kockáztatom, hogy ezáltal az enyémet veszítem el. Ilyenfajta megfontolást és képességet gépbe írni lehetetlen, mert alapfunkcióival ellentétesnek minősülne, és így döntésképtelenségre kárhoztatnánk.

Vagyis eleve értelmetlen lenne kifejleszteni, csatasorba állítani és gyilkolni küldeni efféle masinákat, ha olyan emberi kritériumokat ültetnénk a vezérlő chipekbe, melyek felől az fogalmat sem képes valósan alkotni, másrészt használata felől vizsgálva - mint döntést befolyásoló tényezők - kontraproduktívak.

Semmi jó nem származik abból, ha szilikát alapokon, bináris (azaz: nem bio)logikával vértezetten kreálunk döntéshozatalra kárhoztatott, élet kioltására viszont tökéletesen alkalmas rendszereket, mert a humán, de általában véve is: a szénalapú élet fejlettebb központi ideggóccal bíró egyedeinek helyzetmegítélése más logikát követ. Ettől - ettől is - élő.

molnibalage · https://militavia.blog.hu/ 2010.12.13. 12:53:37

@Cifu78:

Ma elvben úgy "vezetik" a gépeket, hogy akár a joyhoz / botkormányhoz nem is kell nyúlni?

Vészelyhezetekben hogyan reagál a személyzet, ha lényegében nincs vezetési tapasztalata, mert csak a fedélzeti számíógépen való zongorázásban jók?

Joaquin 2010.12.13. 13:12:58

@ver@s kan-tár: "Ilyenfajta megfontolást és képességet gépbe írni lehetetlen, mert alapfunkcióival ellentétesnek minősülne,"
Attól függ, hogy határozzuk meg az alapfunkciót. Ha pl. azt adjuk meg, hogy végezzen el egy feladatot minél kevesebb emberi áldozattal, akkor e szerint fog cselekedni.

Cifu78 2010.12.13. 13:24:14

"Az élet maga egy programnyelv számára csupán egy jól-rosszul definiált absztrakt fogalom, amit output-döntéseknél csak mint ellenállási tényezőt képes figyelembe venni, de olyan emberinek számító végkimenetet nem képes e szempontok mentén generálni, mint a "kímélet", "haladék" és "irgalom". "

Viszont nem ismeri a "gyűlölet", "bosszúvágy" és hasonlóakat sem. Ahogy pedig fent is rámutattak, egy ember is dönthet úgy, hogy az nem felel meg az etikai mércének.

"Ezek a humán harci szituáció megítélési gyengéi, de ettől emberiek: az ember, ha minden oka meg is van rá, nem gyilkol gépiesen, automatikusan: idegpályáin végbemenő bioelektromos folyamatok verik keresztbe egymást, mikor ezredmásodperceken mérhető késleltetéssel élnek: vagy a másik életét veszem el habozás nélkül, vagy kockáztatom, hogy ezáltal az enyémet veszítem el."

A komolyabb katonai kiképzés része pont az, hogy vészhelyzetben minimalizálja az eféle kérdések felvetődését. Propaganda szinten ugye az ellenfél démonizálása is pont ezt a célt szolgálja. Az ellenfél nem ember, hanem egy vérszomjas állat, aki gyerekeket és nőket öl puszta szenvedélyből - tehát meg kell ölni ezért.

Cifu78 2010.12.13. 13:27:33

@molnibalage: A Predator és ahhoz hasonló UAV / UCAV-ok esetén az utóbbi időkben már csak a fel- és leszállásnál volt szükség közvetlen emberi irányításra, vagyis joystickre. Jelenleg már ezt is cserélik le, mivel az ilyen gépek veszteségének jó része pont leszálláskor következik be. Hiába ül az irányítópult előtt egy pilóta, sok ezer repült órával, mivel nincs a feneke alatt a gép, ezért csak a monitoron látható kép alapján sokszor késve vagy hibásan reagál egy olyan egyszerű problémára is, mint egy hirtelen feltámadó keresztszél...

"Vészelyhezetekben hogyan reagál a személyzet, ha lényegében nincs vezetési tapasztalata, mert csak a fedélzeti számíógépen való zongorázásban jók? "

Erre való a szimulátor, hogy ott elsajátítsa az ilyenkor szükséges eljárásokat. ;)

Joaquin 2010.12.13. 13:27:45

@molnibalage: Fú, azt nem tudom, hogy botkormány van-e egyáltalán. Az a lényeg, hogy a VÉGSŐ döntés a számítógépé: ellenőrzi, hogy az általad végrehajtandó manőver túl veszélyes lenne-e, és ha igen, hibát jelez. Pl nem tudod túlságosan bedönteni a gépet. Natgeon a Légi katasztrófák műsorában vannak Airbusok dögivel, lehet csámcsogni :)
Megjegyzem, hogy ez ott kényszer, ugyanis a gép szerkezete miatt kifejezetten érzékeny a túlzott manőverekre.

"Vészelyhezetekben hogyan reagál a személyzet, ha lényegében nincs vezetési tapasztalata, mert csak a fedélzeti számíógépen való zongorázásban jók?"

Szerintem nem olyan fontos, hogy botkormányt rángat, vagy ugyanezt utasításokkal adja meg.

@ver@s kan-tár: "Semmi jó nem származik abból, ha szilikát alapokon, bináris (azaz: nem bio)logikával vértezetten kreálunk döntéshozatalra kárhoztatott, élet kioltására viszont tökéletesen alkalmas rendszereket[...]"
Döntéshozó rendszerek már MA SEM kizárólag bináris logikán alapulnak, inkább valószínűségi logikán (sztochasztikus logika).

Joaquin 2010.12.13. 13:32:12

Az más kérdés, hogy a sztochasztikus logika hibákkal terhelt, így valószínűleg sosem lesz harci robotok döntéshozó rendszereinek része (kérdés, hogy hibák lehetősége nélkül is megoldható-e egy intelligens rendszer tervezése - szerintem nem).

molnibalage · https://militavia.blog.hu/ 2010.12.13. 13:39:10

@Joaquin: Ha meghalt a számítógép, akkor bizony marad kézzel vezetés...

Joaquin 2010.12.13. 14:01:15

@molnibalage: hát igen, arra csak a szimuláció jó. Költenek is rá rendesen.

Zsola777 2010.12.13. 17:09:18

@Cifu78: Nem hallottam olyat, hogy körbeforgott, szétlőtt mindent, csak azt, hogy magától elkezdett lőni, ráadásul egy baráti célra. És azt, hogy halálos áldozatok is voltak, és a vészkapcsolóval sem tudták leállítani. Ennyi.
Technológiai szinten simán működhet a dolog, és a hiba azt mutatja, hogy valami alacsony szinten történt a meghibásodás (az override sem működött), ami bármikor előfordulhat, ha nem tesztelik 100%-ra a cuccokat.

xstranger 2010.12.13. 19:47:10

Lehet nem a repulot iranyitja a botkormany hanem a kamerat, ami logikus is, mivel az irany beprogramozhato es automatizalhato, de hogy mi fontos azt csak az operator tudja.

Ja es egy ido utan felmerul a kerdes hogy mi ertelme tovabb automatizalni? A pilota/operator nincs veszelyben, a feladatok joreszet automatizaltak, autonom dontesekhez meg egy rendes AI kellene, ja mar van egy olyan meglehetosen olcson, az operator.

ver@s kan-tár 2010.12.14. 09:55:40

@Joaquin: Mindez szép és fölöttébb tudományos, épp csak annyira életszerű, mint a hártyásszárnyú kopoltyús kígyó. Az emberi agy és döntési mechanizmus, amibe nem csupán szinapszisok (axon-dendrit) tíz- és százmillióinak áttételes és egyidejű(!) aktiválása játszik bele, de vegyi anyagok (hormonok, kémiai bázisok) is, építkezési logikájában és működésében merőben eltér mind a bináris, mind az általad említett valószínűsítő mechanizmustól. Ezért ma még semmiféle emberkéz alkotta gépezet vezérlési mintájaként nem képezhető le.

Bármiféle robotot – esetünkben harci cselekményekre specifikáltat – kreálsz is, bármiféle alaptudással, kóddal és döntési szisztémával látod is el, az életszerű (biogén) működés egy meglehetősen vékonyka szeletének feleltethető csak meg, mégpedig pont hogy a változás, alkalmazkodás képessége terén való hiátusa okán. A beletáplált (beleégetett) képességeken túl nem lesz módja újakat szerezni, azokat oly módon tárolni és rendszerezni, hogy a konzekvenciát önkényesen vonhassa meg és a saját létezése tényén és módozatán ezek alapján korrigáljon. Ami pedig minden élő szervezet sajátja, és ez az evolúciós alaptézis origója. Mindenre fel lehet készíteni egy gépet, nota bene még "per has" döntések meghozatalára is (sima véletlengenerátor), de hogy öntudatot és megélt hatásokra reagálva változási, újraszervezési képességet iktass be a rideg számítási kritériumok sorába, abba bizony beletörik a bicska. Ezt még csak jósolnom sem kell, ez ugyanis bizton leszögezhető.

Amúgy meg, ha már az efféle kreált intelligenciák kérdésénél tartunk, két kérdés is felmerül. Az egyik gyakorlati. Ha bináris, ha nem bináris logikára építetten funkcionál is ez a mi ketyerénk, módfelett kíváncsi volnék, hogyan, miféle utasításnyelven magyarázzák el számára a maximálisan hatékony élőerő-leküzdés parancsát a lehetőség szerinti legkevesebb humán áldozat kritériumának kikötésével, amit példaként hoztál fel. Ezzel az erővel a kör logaritmikus négyszögesítésére is felkérhetnék az isten-, oh, pardon: emberadtát... Mert ne feledjük: humán harcosokat kiváltandó megalkotott szerkezetekről volna itt szó. Szóval vagy-vagy.

A második probléma elméleti-filozofikus. Nagyjából a végtelen kifejezése véges számokkal. Ami abban a dilemmában áll és tetőzik, hogy ha egy intelligencia (az emberi) képes önerőből a magáéval összevethető és annak működési, de nem felépítési mechanizmusára híven rímelő szisztémát, egy újdonatúj alapvetésű intelligenciát alkotni, akkor az intelligencia fogalmát újra kell gondolni és definiálni, ha a kiinduló (az ember), ha az általa létrehozott, a probléma fölvetését indukáló (a gépezet) intelligenciát tekintjük is. Mert akkor alapelemként bele kell szőni a tételt, hogy annak (általánosan értve: az intelligenciának) képesnek kell lennie a tulajdon szintjét megütő, akár még azt meg is haladó (túlszárnyaló) képességekkel bíró életforma létrehozására. Ha pedig ez így van, akkor ez a létrehozott masinára, annak vezérlő logikájára is érvényes – akár áll rá a tétel, akár meghaladja azt. Mert ha áll rá, akkor ennek a masinériának is képesnek kell lennie magához mérhető vagy pont hogy meghaladó intelligenciát teremteni és kitermelni, majd azt rendszerbe állítani, ha viszont meghaladja, ez esetben képesnek kell lennie a rá így vagy úgy, de egészen addig érvényesnek tekintett szabályszerűség átgondolására és újradefiniálására, függetlenül az őt megalkotó humán intelligencia eseti kikötéseitől, vagy akár annak egész alkalmazott szempontrendszerétől. Ha pedig ezt a szintet és képességet viseli és hozza, hadd ne írjam le, mi vár akkor az emberi nemre. A Terminátor-filmekben kiütköző logika és sors csupán sápatag álmodozás ahhoz képest. És akkor már a kiinduló tételt is visszahatólag kénytelenek lennénk megsemmisíteni, mert 1, vagy kritériuma az intelligencia meglétének, hogy magát meghaladni képes újfajta intelligenciát tudjon létrehozni és önjáró mozgásba lendíteni, ha van fölötte ezt követően érdemi kontrollja, ha nincs, ez esetben viszont potenciálisan saját sírját ássa, vagyis a kiszámítható önvédelem és az önfenntartás opciója enyészik a semmibe, azaz ő, az alkotó már eleve nem lehet intelligens (hogy azt ne írjam már: mentálisan komplett); 2, az általa kiötlött és életre segített intelligenciát vizsgálva, ha végez az nyert (vagy menet közben elsajátított – az alkalmazott technológia kérdése ez, bár ma még nem létezik) képességei révén megalkotójával, ha életben hagyja őt, a kérdés számára éppúgy fennáll: vajon értelmes döntésnek tartja-e saját maga számára, hogy hasonlóval próbálkozzék, mint amire az ő megálmodója és kivitelezője, az ember (tágabb értelemben: a humán intelligencia) pont hogy az ő, az újfajta intelligencia megteremtése révén ráment. Kísérletezne-e újabb szintű intelligencia megalkotásával, vagy tudomásul venné, hogy merő önérdekből (jól felfogott önvédelemből) ennek az útnak jobb neki sem indulni, ha már az általa leküzdött korábbi intelligencia (az ember) ebbe jól kivehetően belebukott? Ami csak azt bizonyít(hat)ja, hogy (a biomassza szintjén vizsgált szerveződési rendként) mégsem volt az annyira elmés, mégsem hordozott annyi intelligenciát, mint amennyit alkotó hevületében feltételezett magáról. Ha viszont az általa létrehozott és fölébe kerekedő értelmező mechanizmus ezt kikalkulálja és eszerint is dönt, úgy mégiscsak szorult a létcsatában vesztes alkotókba némi intelligencia, hiszen a teremtmény, amit alkotott, kiszúrja a logikailag gyenge pontot és szisztematikusan meghaladja azt... Vagyis egy majdnem-intelligencia hozott akkor létre valós intelligenciát, melynek letudandó penzumai közt így ott feszül a kérdés: lehetséges-e ez, életszerű, illetve sorsszerű-e, meg hogy rá nézve ez mit jelenthet. És a kör itt visszazár önmagába, lehet róni végtelen ciklusokban.

Másik út, hogy alkotunk olykor elemző-mérlegelő modulokkal tarkított programlogika mentén működő, ilyen-olyan feladatok korrekt ellátására korlátozott gépeket, és hogy a produkció ütősebb reklámot kapjon, másrészt mert az emberi lény hiúsága minden szinten mindent visz, pláne mikor nem alkotónak, de egyenesen teremtőnek képzeli magát, elnevezzük a létrehozott akármit intelligenciának, hadd szóljon. Hiszen ha megszólal is, csak azt mondhatja, amit belediktáltunk. Remélhetőleg... remélhetőleg tényleg csak annyit.

Ez volna hát az a híres – biofunkcionális vagy épp mesterséges – intelligencia?

Zovits 2010.12.14. 14:21:50

Szerintem egyértelmű a felelősség kérdése. Ha én kiteszek egy mosógépet az autópálya közepére, és meghal az az autós, aki belerohant, akkor én vagyok a hibás. Ha egy parancsnok elrendeli egy fegyveres robot bevetését valahol, aztán a robot megöl valakit, akit nem kellett volna, akkor a parancsnok a hibás.
Neki kell megvizsgálnia a robotot, eldöntenie, hogy vállalja-e a bevetésével járó kockázatot.

Másik lehetséges irány, de inkább csak gondolatkísérlet, ha a robotot tesszük felelőssé. És mivel nem számít embernek, ezért nem is védi semmilyen törvény, tehát nyugodtan "halálra" ítélhető. A katonaság pedig majd elgondolkodik a további bevetéseken és fejlesztéseken, ha már a huszadik többmilliós ketyeréjüket zúzzák konzervdobozzá háborús bűnök miatt.

Esetleg halálbüntetés helyett közmunkára is lehetne ítélni a robotokat. Fegyvereket leszerelni, szoftvert kicserélni, aztán odaadományozni valamelyik közhasznú társaságnak, akik mondjuk erdőtüzeket oltanak vele (UAV), vagy mozgáskorlátozottaknak utalják ki csomagcipelésre (BigDog).

Csomorkány 2011.01.10. 22:14:07

@ver@s kan-tár: Nem tudom, mennyi Stanislaw Lemet olvastál, de ő elmélkedik az általad feszegetett problémákon.

Kedvec példázatom tőle (emlékezetből idézem) a 26. generációs számítógép, amely egy szép napon megkérdi alkotóit: "Hölgyeim és uraim, önök rengeteg információt belém tápláltak, és végtelenül hálás vagyok mindezért. Van egy fogas kérdés,a mivel sehogysem boldogulok. Megtudnák mondani, hogy ki vagyok?" (Kudarc)

A lényeg, hogy az ember alighanem be tud indítani olyan folyamatokat, amelyek elvezetnek a szintetikus intelligencia megjelenéséhez - uralni nem tudja a folyamatot.

Végülis most is képesek vagyunk egészen ősi, konzervatív eszközökkel magunkhoz hasonló, értelmes lényeket világra hozni, előbb utóbb találhatunk más alapon nyugvó, kevésbé élvezetes módszereket is. Azt a problémát nem fogjuk megkerülni, hogy ettől még semmivel nem fogunk többet tudni arról, mi az az intelligencia, és kik vagyunk.

Egy másik Lem példázat: egy hároméves gyerek, aki semmit nem tud az egyenlő oldalú háromszögről, végülis végpontjainál egymáshoz illeszthet három egyforma hosszú fogpiszkálót.
süti beállítások módosítása