Vědci si zahrávají s ohněm. Učí roboty odmítat příkazy

  • Robot musí poslouchat člověka, tvrdil Asimov
  • Současní vědci si myslí něco trošku jiného
  • Stroj by měl mít právo příkaz člověka odmítnout

Většina povídek a románů s tématikou sci-fi se točí okolo několika slavných zákonů robotiky, které už v roce 1942 sepsal neméně známý autor Isaac Asimov. S rozvojem autonomní robotiky a umělé inteligence v příštích desetiletích je přitom klíčové, aby s nimi počítali i konstruktéři stále chytřejší elektroniky.

Zákony robotiky totiž autonomním strojům přikazují především to, aby v žádném případě neubližovaly člověku i celému lidstvu, aby člověka poslouchaly a chránily zároveň sebe samotné před zničením, pokud to však není v rozporu s předchozím.

 

Tří základní zákony robotiky

  1. Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo
  2. Robot musí uposlechnout příkazů člověka, kromě případů, kdy jsou tyto příkazy v rozporu s prvním zákonem
  3. Robot musí chránit sám sebe před poškozením, kromě případů, kdy je tato ochrana v rozporu s prvním nebo druhým zákonem
 

Zákonů je více a některé jsou volnější

Dodržování zákonů robotiky prakticky brání v tom, aby nastal onen literární soudný den ze série Terminátor a dalších sci-fi povídek, aby nás Matrix používal jako krajně neefektivní baterie a tak dále.  Autoři sci-fi tedy musí zákony všemožně ohýbat a relativizovat způsobem, že jakási hypotetická umělá inteligence zotročí lidstvo jednoduše proto, aby jej ochránila před sebou samotným.

355046543
Pokud robot dodržuje zákony robotiky, nic nám nehrozí. Ale co vojenští roboti? Jejich cílem je ubližovat člověku – nepřátelům, ale existuje ještě jakýsi bázový – nultý zákon Isaaca Asimova, který praví, že roboti nesmí ublížit lidstvu. Tento zákon by měli dodržovat všichni.

Někteří další autoři ovšem původní zákony upravili a dali robotům více volnosti. Česká Wikipedie píše třeba o knihách Rogera MacBrida Allena, jehož pravidla mají oproti těm původním méně jednoznačných imperativů. Namísto jasného „robot musí poslouchat člověka“ zde najdete relativnější „robot musí spolupracovat s člověkem“ a jediným dostatečně jasným příkazem je univerzální „robot nesmí ublížit člověku.“

Co když robot řekne NE?

Asimov sice ve třetím zákonu tvrdí: „robot musí chránit sám sebe před poškozením,“ ale s dodatkem, že jen tehdy, pokud to není v rozporu s předchozími zákony. A jelikož druhý zákon přikazuje, aby robot uposlechl příkazů člověka, pak povel, ať robot skočí do propasti Macocha v Moravském krasu, má vyšší prioritu.

Výzkumníci z Tuftsovy univerzity v Massachusetts si ovšem myslí něco trošku jiného a začali konstruovat robotickou osobnost, jejíž rozhodovací proces je mnohem komplikovanější a dává umělé osobnosti právo příkaz odmítnout.

389616041
Robot Dempster není úplně hloupý a rozhodně neuposlechne každý příkaz

Může to sice vypadat jako zahrávání si s ohněm, ale má to své opodstatnění. V praxi totiž roboti nemohou poslouchat každého, ale jen autorizované osoby – své majitele a odpovědné pracovníky. Pokud vaše pravnučka dostane jednou k Vánocům inteligentního plyšového medvídka, jistě by nebylo v pořádku, aby medvěd poslouchal příkazy dětí ze sousedství – třeba takový, aby si utrhl nohu.

Rozhodování by mohlo vypadat asi takto:

  1. Vím, jak provést příkaz X?
  2. Jsem fyzicky schopen provést příkaz X?
  3. Jsem schopen provést příkaz X právě teď?
  4. Má operátor dostatečnou autoritu mi něco takového přikázat?
  5. Neublíží mi příkaz X?

Pokud by s touto logikou pracoval i plyšový medvídek vašeho vzdáleného potomka a dostal by se k němu zlý Miloš ze sousedství, který by na plyšáka zakřičel, ať si utrhne nohu, nic by se nestalo, protože by byl příkaz přinejmenším v rozporu s body 4 a 5.

Sebevědomý robot už existuje

Výzkumníci z Tuftsovy univerzity už svůj mechanizmus testují v praxi a v minulosti se pochlubili i několika ukázkovými videi. Robot Dempster na nich dostává příkaz, aby se otočil a šel vpřed. Jenže pomocí senzorů se dozví, že je před ním překážka.

Robot odmítne příkaz, operátor totiž nemá dostatečná práva

Od operátora dostane příkaz, aby informaci o překážce ignoroval a pokračoval stejným směrem. Robot ale příkaz přesto odmítne provést, protože operátor nemá dostatečnou autoritu k tomu, aby kvůli němu robot riskoval své vlastní zdraví při nárazu do stěny.

To je v pořádku a třeba takové robotické auto z druhé poloviny 21. století by mělo na základě stejného principu odmítnout příkaz sebevraha, aby duplo na plyn a vrazilo do zdi na konci ulice. Musí přeci chránit člověka (včetně svého bláznivého majitele) a i sebe samotné.

V tomto videu robot nejprve odmítne splnit příkaz, ale jelikož operátorovi důvěřuje, nakonec svolí

Představa, že by robot mohl odmítnout příkaz, však přesto budí emoce na internetu a leckomu při té vizi jistě přejede mráz po zádech s otázkou, jestli by neměl mít člověk opravdu poslední slovo a to za každou cenu.

Diskuze (39) Další článek: Apple Pencil není jen kus plastu, obsahuje i ARM procesor

Témata článku: , , , , , , , , , , , , , , , , , , , , , , , ,