Klávesové zkratky na tomto webu - základní­
Přeskočit hlavičku portálu


Zakažte autonomní roboty zabijáky, apeluje Musk a další experti u OSN

aktualizováno 
Více než sto předních expertů na pokročilé technologie, včetně miliardáře a vizionáře Elona Muska, vyzvalo OSN, aby zakázala vývoj takzvaných „robotů zabijáků“, tedy autonomních robotů určených k zabíjení. To zahrnuje drony, bitevní roboty a další speciální zbraně, které nevyžadují lidskou obsluhu.

Elon Musk a další odborníci na umělou inteligencí varují OSN před „autonomními zbraněmi“ a doporučují jejich preventivní zákaz | foto: montáž: Pavel Kasík, Technet.cz

O umělé inteligenci se mluví v souvislosti s deskovými, karetními nebo počítačovými hrami, analýzou velkých dat, strojovými překlady, samořídícími auty nebo asistovaného rozhodování. Ale šéfové firem, které na těchto „nevinných“ aplikacích pracují, si dokážou představit i mnohem zásadnější - a o poznání nebezpečnější implementaci samostatného rozhodování počítače. Robota určeného k zabíjení, který nebude potřebovat lidskou obsluhu. Zkrátka autonomní zbraně (v originále: autonomous weapons)

Co je a co není autonomní zbraň

Příkladem takovéto autonomní zbraně je například „ozbrojená kvadrokoptéra, která dokáže samostatně vyhledávat a zabíjet lidi na základě předem definovaných kritérií“.

Naopak řízená střela, kterou pošle na cíl člověk, není „autonomní zbraní“. Stejně tak dron, kterého pilot ovládá na dálku, nebo policejní robot řízený na dálku. V takových případech totiž o případném zabití nerozhoduje stroj, ale člověk.

„Až takové metody budou vyvinuty, rozsah možných ozbrojených konfliktů se výrazně rozšíří a rychlost, se kterou se takové incidenty budou moci odehrát, zcela přesáhne lidské chápání,“ uvádějí experti v otevřeném dopise. „Mohou to být nástroje teroru; zbraně, které tyrani a teroristé použijí proti nevinným lidem.“

Experti na umělou inteligenci ve svém dopise varují před „třetí revolucí ve válčení“ (po střelném prachu a jaderných zbraních) a uvádějí, že smrtelná autonomní technologie představuje Pandořinu skřínku. Důležité je podle nich jednat včas a užití umělé inteligence určené k obsluhování zbraní mezinárodně zakázat.

Tón dopisu, který podepsalo 116 průkopníků ve vývoji umělé inteligence, je naléhavý. Podle nich není moc času a se zahájením takové diskuse není radno otálet, protože až se pověstná Pandořina skříňka otevře, bude těžké ji znovu zavřít.

Roboti zabijáci už nejsou sci-fi

Už dnes pochopitelně používají armády, policisté i teroristické skupiny různé technologie, které lze označit za automatické či do určité míry autonomní: na dálku řízené drony, policejní i vojenští roboti na dálkové ovládání, nášlapné miny, řízené střely nebo dron s GPS naváděním.

MAARS je vybavený kamerou, laserovým zářičem na varování a zmatení protivníka,...

MAARS je vybavený kamerou, laserovým zářičem na varování a zmatení protivníka, granátometem, sirénou, reproduktorem a mikrofonem, laserovým zaměřovačem, kamerami a kulometem. Ovládat jej lze na vzdálenost až 800 metrů.

Ale rozšíření takového zařízení o umělou inteligenci přináší zcela nové možnosti - a také zcela nová nebezpečí. V roce 2015 více než tisíc vývojářů a vědců podepsalo jiný otevřený dopis varující před hrozbami spojenými s touto technologií. Tehdy se pod text podepsali například britský astrofyzik Stephen Hawking, spoluzakladatel firmy Apple Steve Wozniak a rovněž Elon Musk. „Vývoj umělé inteligence dosáhl takové úrovně, že příchod autonomního zbraňového systému lze očekávat v řádu let, nikoli desítek let,“ domnívali se už v roce 2015 odborníci.

Uznali, že existují i argumenty pro vývoj takových zbraní, které by například omezily ztráty na životech, jelikož by armáda nemusela posílat na některé mise živé vojáky. To by ale také vedlo k tomu, že by bylo levnější a jednodušší iniciovat více konfliktů.

Autonomní zbraně by navíc byly relativně levné na výrobu - drahý by byl jen jejich vývoj, a to pouze zpočátku. Brzy je budou mít k dispozici všechny armády, a jejich výroba se rapidně zlevní. Nebude trvat dlouho a objeví se na černém trhu, v rukou teroristů, diktátorů toužících po dohledu nad obyvatelstvem, válečníků prahnoucích po etnických čistkách apod.

Speciální konference byla pro nezájem odložena

Spojení umělé inteligence a zbraní experti označují za nemorální. Žádají proto OSN, aby byl tento typ zbraní zakázán prostřednictvím Úmluvy OSN o zákazu nebo omezení použití určitých druhů konvenčních zbraní (CCW).

Jednání OSN o moderních autonomních zbraních, které se mělo uskutečnit v pondělí 21. srpna, bylo pro malý zájem odloženo na listopad. V minulosti se o zákazu vývoje takzvaných robotů zabijáků v rámci OSN už hovořilo. Vědci podepsaní pod dopisem vyjádřili politování nad tím, že je tématu věnován malý zájem: „Jakmile budou autonomní zbraně jednou vytvořeny, umožní ozbrojené konflikty takového rozsahu a takové rychlosti, že si to ani nedokážeme představit.“

Historie vojenské automatizace a autonomizace

Samostatně uvažující roboti zabijáci, kteří plní zadání či jednají na vlastní pěst, jsou dalším stupněm v evoluci „chytrých“ zbraní.

Už nyní ale armády i další skupiny používají řadu technologií, které umožňují zabíjet na dálku a bez zásahu člověka.

Pasti a léčky - asi nejstarší „samostatně uvažující“ technologií jsou různé nastražené pasti, které zřejmě lidé používají už od neolitu. Díra s bodáky zamaskovaná listím je vlastně takovým jednoduchým mechanismem, který „útočí“ v případě, že je splněna předem stanovená podmínka, tedy zatížení pasti. Všimněme si, že tato past nerozlišuje, koho pohltí, jinak než podle rozložení hmotnosti.

Miny - Výbušné miny jsou známé už z Číny z 13. století po Kristu, ze 16. století se pak dochovaly první miny nášlapné, které jsou využívané armádami po celém světě až do nedávna. Ve 20. století nášlapné miny zamořily ohromná území, zvláště v Africe, Asii a Jižní Americe. Nášlapné miny ukazují další aspekt problému autonomních zbraní - zůstávají nebezpečné desítky let poté, co jejich původní úkol pominul - ročně miny zabijí v průměru 4 300 osob. Zároveň jsou nášlapné miny ukázkou toho, že i v oblasti munice je možná dohoda. Ottawskou úmluvu, která miny zakazuje, podepsala většina států OSN (bohužel k nim nepatří velmoci jako USA, Čina ani Rusko).

Automatické systémy aktivní ochrany - některé bojové lodě či vozidla jsou vybaveny takzvanými systémy aktivní ochrany (APS), které automaticky rozpoznají přibližující se raketu a dokážou ji zaměřit a zničit vlastními projektily. Takový systém už vykazuje známky „uvažování“ (na základě souboru parametrů rozhoduje o tom, co je, a co není hrozba, a poté sám hrobu likviduje).

Problém s autonomními zbraněmi není jen problémem technologickým. Má totiž svůj psychologický a morální rozměr. I piloti, kteří na dálku ovládají americké drony operující na druhé straně světa, jsou stále za svá rozhodnutí zodpovědní. Musejí zvažovat, co vidí a co nevidí, kdy zaútočit a kdy vyčkávat... Ačkoli vzdálenost i technické prostředky působí jako bariéra mezi nimi a vesnicí, kterou sledují, stále si uvědomují, že jde o lidské životy, a svou paradoxní pozici nezúčastněného účastníka někdy psychicky těžce nesou.

Ozbrojený dron řízený na dálku (ilustrační snímek)

Ozbrojený dron řízený na dálku (ilustrační snímek)

Pilot dronu amerického letectva MQ-9 Reaper v Nevadě

Pilot dronu amerického letectva MQ-9 Reaper v Nevadě

Naopak robot, který by sám rozhodoval o tom, na koho zaútočí, by si se stresem nemusel dělat starosti. Jakákoli akce (střílet/nestřílet) by byla pouze výsledkem algoritmického zvážení vstupních dat. Robot by se rozhodl buď podle předem daných parametrů, podmínek a prahů (“POKUD je objekt větší (než 90 cm) A ZÁROVEŇ blíže než 40 metrů NEBO rychlejší než 2 km/h -> střílet“), nebo na základě desítek parametrů vyhodnocených neuronovou sítí.

V každém případě by neměl výčitky svědomí a těžko by mohl mít právní odpovědnost za případný omyl. Nemluvě o případech, kdy by podobné systémy využily stejné skupiny, které nyní používají útoky pomocí nástražných zařízení, jedoucích automobilů nebo sebevražedných atentátů. Vraždící potenciál takového robota by byl omezen jen jeho baterií a municí.

Autor:



Nejčtenější

Prahu by zatopila radioaktivní voda. Ihned by umřely desítky tisíc lidí

Celkový pohled na Prahu zatopenou vodou z Orlické a Slapské přehrady v rámci...

Píše se rok 1982 a Prahu zasahuje mohutná přívalová vlna z protržené Slapské a Orlické přehrady. Je to dílo nepřítele...

Dvakrát přežil ohnivé peklo a vrátil se do boje. Chybu udělal po válce

František Truhlář před válkou

Letec RAF František Truhlář přežil dvě těžké havárie při návratech z bojových letů. Při obou utrpěl těžké popáleniny,...



Proč chtěl Hitler Svatý grál a archeologie za ČSSR nebyla marxistická

Svastika na archaické řecké keramice (8. století před Kr., Archeologické muzeum...

Jedním z oblíbených triků propagandy a propagandistů je návrat k mýtům a ohýbání historie do podoby, která politickému...

Tohle astronomové ještě neviděli. Přiletěla první mezihvězdná planetka

Rekonstrukce možné podoby planetky 1I/2017 U1 (‘Oumuamua) na základě údajů...

V naší soustavě už více či méně dobře známe 750 tisíc různých planetek a dalších menších těles. Ale žádný z nich se...

Legendární pragovka pokořila Balkán a Jugoslávci ji pojmenovali Pionir

Praga RND

Legendární nákladní automobil Praga RN, včetně dieselové mutace RND, vznikl v první polovině třicátých let, ale ve...



Další z rubriky

OBRAZEM: Vrtulníky Kamov, zbraň proti ponorkám i polním škůdcům

Kamov Ka-27

Před sedmdesáti lety vzlétl první experimentální vrtulník Ka-8 ruského konstruktéra Kamova, z jehož kanceláře pak...

Největší problém umělé inteligence: nelze zjistit, „proč“ se rozhodla

Technický ředitel společnosti Fujitsu, Dr. Joseph Reger

Umělá inteligence a strojové učení jsou budoucností průmyslu. Přináší však s sebou problémy, které zatím v oblasti...

Kvůli ruskému metru mohla padnout stanice v Nuselském mostu, řekl architekt

Architekt Nuselského mostu Stanislav Hubička (vlevo) a Antonín Semecký, který...

Stanislav Hubička, architekt Nuselského mostu a Antonín Semecký, který se o most stará téměř doslova celý život, byli...



Najdete na iDNES.cz