Klávesové zkratky na tomto webu - základní­
Přeskočit hlavičku portálu


Zakažte autonomní roboty zabijáky, apeluje Musk a další experti u OSN

aktualizováno 
Více než sto předních expertů na pokročilé technologie, včetně miliardáře a vizionáře Elona Muska, vyzvalo OSN, aby zakázala vývoj takzvaných „robotů zabijáků“, tedy autonomních robotů určených k zabíjení. To zahrnuje drony, bitevní roboty a další speciální zbraně, které nevyžadují lidskou obsluhu.

Elon Musk a další odborníci na umělou inteligencí varují OSN před „autonomními zbraněmi“ a doporučují jejich preventivní zákaz | foto: montáž: Pavel Kasík, Technet.cz

O umělé inteligenci se mluví v souvislosti s deskovými, karetními nebo počítačovými hrami, analýzou velkých dat, strojovými překlady, samořídícími auty nebo asistovaného rozhodování. Ale šéfové firem, které na těchto „nevinných“ aplikacích pracují, si dokážou představit i mnohem zásadnější - a o poznání nebezpečnější implementaci samostatného rozhodování počítače. Robota určeného k zabíjení, který nebude potřebovat lidskou obsluhu. Zkrátka autonomní zbraně (v originále: autonomous weapons)

Co je a co není autonomní zbraň

Příkladem takovéto autonomní zbraně je například „ozbrojená kvadrokoptéra, která dokáže samostatně vyhledávat a zabíjet lidi na základě předem definovaných kritérií“.

Naopak řízená střela, kterou pošle na cíl člověk, není „autonomní zbraní“. Stejně tak dron, kterého pilot ovládá na dálku, nebo policejní robot řízený na dálku. V takových případech totiž o případném zabití nerozhoduje stroj, ale člověk.

„Až takové metody budou vyvinuty, rozsah možných ozbrojených konfliktů se výrazně rozšíří a rychlost, se kterou se takové incidenty budou moci odehrát, zcela přesáhne lidské chápání,“ uvádějí experti v otevřeném dopise. „Mohou to být nástroje teroru; zbraně, které tyrani a teroristé použijí proti nevinným lidem.“

Experti na umělou inteligenci ve svém dopise varují před „třetí revolucí ve válčení“ (po střelném prachu a jaderných zbraních) a uvádějí, že smrtelná autonomní technologie představuje Pandořinu skřínku. Důležité je podle nich jednat včas a užití umělé inteligence určené k obsluhování zbraní mezinárodně zakázat.

Tón dopisu, který podepsalo 116 průkopníků ve vývoji umělé inteligence, je naléhavý. Podle nich není moc času a se zahájením takové diskuse není radno otálet, protože až se pověstná Pandořina skříňka otevře, bude těžké ji znovu zavřít.

Roboti zabijáci už nejsou sci-fi

Už dnes pochopitelně používají armády, policisté i teroristické skupiny různé technologie, které lze označit za automatické či do určité míry autonomní: na dálku řízené drony, policejní i vojenští roboti na dálkové ovládání, nášlapné miny, řízené střely nebo dron s GPS naváděním.

MAARS je vybavený kamerou, laserovým zářičem na varování a zmatení protivníka,...

MAARS je vybavený kamerou, laserovým zářičem na varování a zmatení protivníka, granátometem, sirénou, reproduktorem a mikrofonem, laserovým zaměřovačem, kamerami a kulometem. Ovládat jej lze na vzdálenost až 800 metrů.

Ale rozšíření takového zařízení o umělou inteligenci přináší zcela nové možnosti - a také zcela nová nebezpečí. V roce 2015 více než tisíc vývojářů a vědců podepsalo jiný otevřený dopis varující před hrozbami spojenými s touto technologií. Tehdy se pod text podepsali například britský astrofyzik Stephen Hawking, spoluzakladatel firmy Apple Steve Wozniak a rovněž Elon Musk. „Vývoj umělé inteligence dosáhl takové úrovně, že příchod autonomního zbraňového systému lze očekávat v řádu let, nikoli desítek let,“ domnívali se už v roce 2015 odborníci.

Uznali, že existují i argumenty pro vývoj takových zbraní, které by například omezily ztráty na životech, jelikož by armáda nemusela posílat na některé mise živé vojáky. To by ale také vedlo k tomu, že by bylo levnější a jednodušší iniciovat více konfliktů.

Autonomní zbraně by navíc byly relativně levné na výrobu - drahý by byl jen jejich vývoj, a to pouze zpočátku. Brzy je budou mít k dispozici všechny armády, a jejich výroba se rapidně zlevní. Nebude trvat dlouho a objeví se na černém trhu, v rukou teroristů, diktátorů toužících po dohledu nad obyvatelstvem, válečníků prahnoucích po etnických čistkách apod.

Speciální konference byla pro nezájem odložena

Spojení umělé inteligence a zbraní experti označují za nemorální. Žádají proto OSN, aby byl tento typ zbraní zakázán prostřednictvím Úmluvy OSN o zákazu nebo omezení použití určitých druhů konvenčních zbraní (CCW).

Jednání OSN o moderních autonomních zbraních, které se mělo uskutečnit v pondělí 21. srpna, bylo pro malý zájem odloženo na listopad. V minulosti se o zákazu vývoje takzvaných robotů zabijáků v rámci OSN už hovořilo. Vědci podepsaní pod dopisem vyjádřili politování nad tím, že je tématu věnován malý zájem: „Jakmile budou autonomní zbraně jednou vytvořeny, umožní ozbrojené konflikty takového rozsahu a takové rychlosti, že si to ani nedokážeme představit.“

Historie vojenské automatizace a autonomizace

Samostatně uvažující roboti zabijáci, kteří plní zadání či jednají na vlastní pěst, jsou dalším stupněm v evoluci „chytrých“ zbraní.

Už nyní ale armády i další skupiny používají řadu technologií, které umožňují zabíjet na dálku a bez zásahu člověka.

Pasti a léčky - asi nejstarší „samostatně uvažující“ technologií jsou různé nastražené pasti, které zřejmě lidé používají už od neolitu. Díra s bodáky zamaskovaná listím je vlastně takovým jednoduchým mechanismem, který „útočí“ v případě, že je splněna předem stanovená podmínka, tedy zatížení pasti. Všimněme si, že tato past nerozlišuje, koho pohltí, jinak než podle rozložení hmotnosti.

Miny - Výbušné miny jsou známé už z Číny z 13. století po Kristu, ze 16. století se pak dochovaly první miny nášlapné, které jsou využívané armádami po celém světě až do nedávna. Ve 20. století nášlapné miny zamořily ohromná území, zvláště v Africe, Asii a Jižní Americe. Nášlapné miny ukazují další aspekt problému autonomních zbraní - zůstávají nebezpečné desítky let poté, co jejich původní úkol pominul - ročně miny zabijí v průměru 4 300 osob. Zároveň jsou nášlapné miny ukázkou toho, že i v oblasti munice je možná dohoda. Ottawskou úmluvu, která miny zakazuje, podepsala většina států OSN (bohužel k nim nepatří velmoci jako USA, Čina ani Rusko).

Automatické systémy aktivní ochrany - některé bojové lodě či vozidla jsou vybaveny takzvanými systémy aktivní ochrany (APS), které automaticky rozpoznají přibližující se raketu a dokážou ji zaměřit a zničit vlastními projektily. Takový systém už vykazuje známky „uvažování“ (na základě souboru parametrů rozhoduje o tom, co je, a co není hrozba, a poté sám hrobu likviduje).

Problém s autonomními zbraněmi není jen problémem technologickým. Má totiž svůj psychologický a morální rozměr. I piloti, kteří na dálku ovládají americké drony operující na druhé straně světa, jsou stále za svá rozhodnutí zodpovědní. Musejí zvažovat, co vidí a co nevidí, kdy zaútočit a kdy vyčkávat... Ačkoli vzdálenost i technické prostředky působí jako bariéra mezi nimi a vesnicí, kterou sledují, stále si uvědomují, že jde o lidské životy, a svou paradoxní pozici nezúčastněného účastníka někdy psychicky těžce nesou.

Ozbrojený dron řízený na dálku (ilustrační snímek)

Ozbrojený dron řízený na dálku (ilustrační snímek)

Pilot dronu amerického letectva MQ-9 Reaper v Nevadě

Pilot dronu amerického letectva MQ-9 Reaper v Nevadě

Naopak robot, který by sám rozhodoval o tom, na koho zaútočí, by si se stresem nemusel dělat starosti. Jakákoli akce (střílet/nestřílet) by byla pouze výsledkem algoritmického zvážení vstupních dat. Robot by se rozhodl buď podle předem daných parametrů, podmínek a prahů (“POKUD je objekt větší (než 90 cm) A ZÁROVEŇ blíže než 40 metrů NEBO rychlejší než 2 km/h -> střílet“), nebo na základě desítek parametrů vyhodnocených neuronovou sítí.

V každém případě by neměl výčitky svědomí a těžko by mohl mít právní odpovědnost za případný omyl. Nemluvě o případech, kdy by podobné systémy využily stejné skupiny, které nyní používají útoky pomocí nástražných zařízení, jedoucích automobilů nebo sebevražedných atentátů. Vraždící potenciál takového robota by byl omezen jen jeho baterií a municí.

Autor:



Nejčtenější

Ve SpaceX zřejmě udělali malou chybu, auto skutečně doletí skoro k Marsu

Tesla Rodadster Elona Muska ve vesmíru

Elektromobil Tesla Roadster, který miliardář Elon Musk poslal do vesmíru na raketě Falcon Heavy, zřejmě přece jen...

Neznali morseovku a zřítili se v ČSR. Tři týdny je komunisti zapírali

Zajatému pilotovi Krausovi byl na prohlídku zapůjčený nepříliš padnoucí civilní...

Měl to být obyčejný zkušební let. Němečtí piloti však kvůli špatné znalosti morseovky a neuvěřitelné shodě náhod...



Nejšťastnější americká stíhačka. Pilot ji opustil, a tak přistála sama

Convair F-106A Delta Dart

Před téměř půlstoletím se stal v americké Montaně zázrak. Z nebe se snesl na pšeničné pole proudový letoun, který byl...

Nejvtipnější chyby z českého hitu Kingdom Come: Deliverance

Kingdom Come: Deliverance

Kingdom Come je obrovská a propracovaná hra, ale její autory čeká ještě spousta práce při odlaďování mnoha chyb, které...

Apple HomePod ničí dřevěný nábytek. Dávejte ho jinam, radí výrobce

Takto dopadl povrch dřevěného nábytku při testu HomePodu magazínem Wirecutter.

S prvními zahraničními recenzemi a s prvními aktivními uživateli chytrého reproduktoru HomePod se ukázal jeden nečekaný...

Další z rubriky

Jak se vyrábějí lyže. Dřevo ničím nenahradíš

Slepené polotovary lyží před začištěním a opracováním

Na dobrou lyži potřebujete především dobře proschlé dřevo a pořádné lepidlo. Podívejte se s námi do zákulisí české...

Nezvyklá podívaná: Řada strojů uklízí přistávací dráhu na letišti

Čistící stroje odklízí sníh na Letišti Václava Havla 17.1.2018.

Husté sněžení se v minulých dnech nevyhnulo ani Letišti Václava Havla v Praze. Díky kamerám Slow TV a našim fanouškům...

Kam míří vývoj dronů, skvěle ukazuje nový Mavic Air od DJI

DJI Mavic Air můžete pro snadnou přepravu složit, téměř se vejde do dlaně.

Složíte jej do úhledného uzlíčku, přitom dokáže pořídit záběry dříve dostupné jen filmařům s milionovým vybavením. Sám...

Najdete na iDNES.cz