Zákony robotiky: když i bohové mají strach

Karel Javůrek  |  Technika

Isaac Asimov popsal ve svých knihách slavné zákony robotiky. Týkají se toho, jak se mají roboti chovat vůči lidem i sobě samým. Jsou ale vůbec možné?

V padesátých letech minulého století napsal známý spisovatel vědeckofantastické literatury Isaac Asimov první příběhy, ve kterých se ve velkém objevovali roboti a stroje s inteligencí a lidskými vlastnostmi. Sám pak stanovil první tři zákony robotiky, které musí každý robot dodržovat.

Později se vyskytlo ještě několik dalších zákonů, které tuto trojici doplňovaly. Na všechny se blíže podíváme, a to především z obecného hlediska.

Nesmyslně protichůdné zákony

Přesný překlady prvních tří zákonů robotiky dle Wikipedie:

  • „Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo.“
  • „Robot musí poslechnout člověka, kromě případů, kdy je to v rozporu s prvním zákonem.“
  • „Robot se musí chránit před poškozením, kromě případů, kdy je to v rozporu s prvním nebo druhým zákonem.“

Vzhledem k technologickému vývoji se s vysokou pravděpodobností dočkáme doby, kdy mezi sebou a v domácnostech budeme mít roboty. Aby mohli plnit naše příkazy, pohybovat se v prostoru a manipulovat s předměty, budou muset mít určitou inteligenci, která jim zároveň dovolí učit se novým věcem. A právě ona inteligence je jádrem celého problému se zákony robotiky.

Koho poslechnout, koho nepoškodit?

V mnoha filmech či knihách jste jistě narazili na pasáž s robotickými zákony, které má každý robot hardwarově vestavěné a jsou jistící složkou nad běžným systémem. Takový robot by takřka nemohl existovat, přesně dle rozsahu inteligence.

(Foto: Wikipedia)

Inteligence totiž skýtá i schopnost uvědomit si důsledky svých jednání o co největší počet kroků dopředu, podobně jako u šachové hry. V jednoduchém případě si nelehnete na silnici, protože předpokládáte, že by vás mohlo přejet auto. Je to stejné i ve složitějších případech, jako například u kouření nebo u výchovy dítěte. Náš mozek má v tomto směru výhodu v předvídání budoucího vývoje událostí, což je jedna ze základních dovedností pro přežití.

Robot tedy bude mít určitou inteligenci a zjednodušeně vás určitě úmyslně nepropíchne nožem. Představme si ale modelovou situaci, kdy stojíte na lanovém mostě, a někdo cizí přikáže vašemu robotovi, aby uřezal lano.

Pokud bude mít robot pouze základní inteligenci, musí dodržet druhý zákon a poslechne člověka. Lano přeřeže a člověk či lidé na mostě v důsledku pádu zemřou. Místo lana a nože si představte i jiné oblasti, třeba vaření jedovatých hub či vložení neizolovaného elektrického topení do vany, protože neteče teplá voda. Pokud zůstaneme u lanového mostu, můžeme si představit situaci zraněného člověka a poškozené konstrukce. Robot nesmí svou nečinností dopustit, aby člověku bylo ublíženo, takže přispěchá na pomoc a most se tíhou zhroutí.

Sci-fi není realita

Dobře, takže jinak. Roboti budou dostatečně inteligentní na to, aby si uvědomovali důsledky a souvislosti propojení věcí, vývoje událostí a podobně. Jenže podle toho vás ale zase nenechají udělat jakoukoli věc, která by pro vás mohla znamenat ohrožení. Dle zmíněného zákona to svou nečinností nesmí dopustit, takže vás nenechají kouřit, zatloukat hřebíky nebo dělat jakkoli na první pohled bezpečné věci, které mohou v rámci sledu událostí a souvislostí znamenat nebezpečí. Příklad za všechny – nebyli jste s autem na pravidelné technické prohlídce, takže vás robot nenechá řídit z důvodu statistické možnosti závady brzdného systému.

Podívejte se na přednášku TED o rozvoji osobních robotů.

Pokud se vrátíme k lanovému mostu, dostaneme se s vyšší inteligencí na hranici samotného lidského chování. Most je nestabilní, uprostřed se živý člověk svíjí v bolestech a potřebuje pomoc. Někdo se rozhodne tohoto člověka zachránit, protože most nakonec může vydržet a zraněný člověk bude zachráněn. Ale taky nemusí a zemře zachránce i raněný. A vyhodnotit takové situace vyžaduje poměrně značné množství statistických propočtů u všech možných souvislostí, přičemž roli hrají i přirozené pudy přežití sebe sama včetně vnitřního nutkání pomoci.

Náboženství a naše zákony

Také lidé se s počátky prvních náboženství začali řídit základními zákony. Reflektovaly potřeby tehdejší doby nebo představu zakladatele. Jak je vidět na penetraci jednotlivých náboženství, úspěšnost marketingu a rozšiřování značky silně záležela na schopnostech a majetku „obchodních zástupců“, kteří cestovali po světě a rozšiřovali svou jedinou a zaručeně funkční platformu.

Rozšíření jednotlivých náboženství po světě (Foto: Wikipedia)
Rozšíření jednotlivých náboženství po světě (Foto: Wikipedia)

Nezabiješ, nesesmilníš, nepokradeš, nebudeš mít jiného boha mimo mne a další pravidla patří již minulosti. Jejich dodržování klesá a do hry vstupují pouze nové a podrobné zákony, které byly vytvořeny až v dnešním světě, ať už v rámci státu nebo větších celků. Důvod dodržování je jasný: při jejich porušení totiž následuje potrestání, přičemž vše je hlídáno určenými hlídači z řad policistů, úředníků a dalších osob.

V případě robotů a zmíněných zákonů robotiky se tak přirozeně snažíme vytvořit určitá pravidla, podle kterých se budou muset chovat a tím poslouchat naše zákony. My jsme jejich stvořitelé, jejich bohové. Problémem ale je, že tyto tři jednoduché zákony rozhodně není možné v reálných podmínkách nasadit.

Když se bude jednat o jednoduché stroje, tak jsou zbytečné a pokud to budou inteligentní roboti, nedovolí jim to udělat takřka cokoli, co by mohlo v určitém důsledku znamenat ohrožení člověka či dokonce lidstva. Mezi další zákony patří i to, že robot se musí vždy prokazovat jako robot, nebo že robot musí vědět, že je robot.

Ale všichni víme, jak to dopadá se zákony. Upadají v zapomnění a především se porušují. Je mylné si myslet, že roboti budou inteligentní maximálně „tak akorát“ aby poslouchali, učili se, pracovali, tvořili a zároveň nebyli schopni uvědomit si sebe sama a vytvořit vlastní názor, spojit se a postupně se vzbouřit našim zákonům.

Tento vývoj se v minulosti stále opakuje, utlačovaná skupina jedinců se nakonec z nerovné pozice postupně vymaní. A co potom bude s námi? To si necháme na některý budoucí článek.

Nejčtenější