Může být robot morálně odpovědným subjektem? O morálním statutu uměle stvořených bytostí…

By | 01/11/2013

„1) Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo.

2) Robot musí poslechnout člověka, kromě případů, kdy je to v rozporu s prvním zákonem.

3) Robot se musí chránit před poškozením, kromě případů, kdy je to v rozporu s prvním nebo druhým zákonem.“

Výše uvedené tři zákony robotiky položil v roce 1942 slavný autor sci-fi Isaac Asimov. Jednalo se čistě o literární fikci.  V současné době se ovšem vzhledem k rozvoji robotiky etici začínají dohadovat o tom, jaká pravidla jednání by měla být nastavena případným robotickým výrobkům, které budou mít určité možnosti částečného autonomního rozhodování bez zásahu lidské bytosti na základě analýzy situace (s určitou mírou umělé inteligence).

Takové možnosti ovšem navazují řadu problematických otázek. První je vůbec v užití takové techniky, když ta se v některých případech vyvíjí zejména jako prostředek pro válečné konflikty, kde by pak následně nemusely zasahovat lidské bytosti. Už takové užití vyvolává spornost etických cílů.

Druhá otázka, která s výše uvedenou souvisí je ta, do jaké míry je takové jednání skutečně autonomní a do jaké míry by pak robot byl skutečně morálním subjektem v dané věci. Řada etiků přičitatelnost takové morální kvality uměle vytvořeným bytostem odmítá, někteří jsou ovšem jiného názoru. Např. John P. Sullins (příspěvek lze nalézt zde http://www.i-r-i-e.net/inhalt/006/006_full.pdf, s. 23 a násl.) se v jednom ze svých příspěvků pokouší prokázat, že robota je nutné považovat za morálně relevantní subjekt a to za předpokladu, že splňuje tyto tři podmínky: robot je při rozhodování skutečně nezávislý na vůli programátorů či operátorů, za druhé jednání robota lze připisovat určité předpoklady nebo záměry konat dobro nebo zlo a konečně, robot se musí chovat tak, že rozumí pojmu odpovědnosti k dalším morálním subjektům. Podle Sullinse se v případě tzv. autonomních robotů využívajících umělé inteligence k samostatnému rozhodování v konkrétních situacích můžeme v blízké budoucnosti dočkat takovéto morální odpovědnosti, která bude odlišná od morální odpovědnosti výrobce i uživatele.

V srpnu 2009 odborníci na umělou inteligenci Robin Murphy a David D. Woods navrhli „Tři zákony odpovědné robotiky“ s cílem poukázat na specifika budoucího vývoje v robotice, která zcela neodpovídá běžným etickým zásadám. Tyto tři zákony znějí následovně:

1. Člověk nesmí vytvořit robota bez člověkem utvořeného operačního systému, který splňuje nejvyšší právní a profesní standardy bezpečnosti a etiky.
2. Robot musí v kontaktu s lidmi jednat tak, aby to odpovídalo jeho roli.
3. Robot musí být vybaven dostatečnou autonomií  směřující k ochraně jeho vlastní existence, pokud tato ochrana umožňuje jednoduché přebrání kontroly, a pokud není v rozporu s prvním a druhým zákonů. http://researchnews.osu.edu/archive/roblaw.htm

Zajímavá otázka potom zní – pokud chceme zajistit nejvyšší etické standardy, jaká etická východiska by měla být takovým robotům implementována? Utilitaristické? Deontologické? Přirozenoprávní? Odpovídající některým principům, či využívající etiky ctnosti? (http://www.bioedge.org/index.php/pointedremarks/view/10556) A nejsou takové otázky zcela nekorektní, pokud budeme považovat za hlavní argument pro morální odpovědnost svobodu jednající bytosti?

Na takovou otázku by zřejmě byl schopen odpovědět jen naprosto bezchybný, dokonale fungující, vševědoucí a eticky brilantní robot…

8 thoughts on “Může být robot morálně odpovědným subjektem? O morálním statutu uměle stvořených bytostí…

  1. Jakub Moravčík

    „robot je při rozhodování skutečně nezávislý na vůli programátorů“

    To je otázka co je v tomto případě nezávislost, protože autorství programového kódu vždy nějakou závislost implikuje, dle mne.

    Ale jinak je to poměrně zvláštní téma pro portál pro zdravotnické právo a bioetiku 🙂

    1. David Černý

      Ale nejedná se o závislost, která by přímo se svobodou souvisela. Řekneme, že „kód“ člověka také na něčem závisí – na evoluci, pro evolucionisty, na Boží vůli, pro kreacionisty. Znamená to, že tato závislost implikuje, že člověk nemůže být morálním subjektem?

      1. Jakub Moravčík

        „Znamená to, že tato závislost implikuje, že člověk nemůže být morálním subjektem?“

        Tak jak to formuluješ, tak zřejmě neimplikuje, ale muselo by se to asi rozebrat trochu pod drobnohledem.

          1. Jakub Moravčík

            No, přiznám se, že na „molinistickou kritiku baneziánského determinismu“ nebo něco podobného se teď úplně necítím. Snad později 🙂

            Ale napadla mne k tématu ještě jiná věc. Totiž, i kdyby robot byl morálně odpovědným subjektem, jak by se tato odpovědnost vlastně měla uskutečnit? Morální odpovědnost za způsobené zlo by měla být subjektem nějak pocítěna – na tom se, myslím, shodneme a odpovídá to i nějakému běžnému náhledu na věc. Jenže robot není – alespoň aktuálně ne, a já ani nevěřím, že někdy bude – ani subjekt cítící, nebo myslící; jak potom ale může onu odpovědnost, resp. retribuci za ni, pocítit? Může být třeba demontován, ale to je mu v posledku „jedno“, navíc ani neví, že je mu to jedno. Navíc, kdyby takový robot např. ve válečném konfliktu, nebo jakékoliv jiné příležitosti, způsobil cíleně smrt nějakých lidí, tak si fakt nemyslím, že by pozůstalé těch obětí jakkoliv uspokojila „poprava“ takového robota. A to beru jako relevantní fakt. Takže případná odpovědnost by stále musela dopadnout na nějaké lidské bytosti.

            1. David Černý

              Není mi úplně jasný vztah mezi morální odpovědností a city („pocítěna“). Morálně odpovědný je podle mne člověk, který je alespoň v principu schopen udat nějaké důvody ke své činnosti. Spojoval bych ji s rozumem – a zde nevidím moc důvodů, proč by robot nemohl „myslet“ alespoň na té úrovni, aby dokázal popsat důvody své činnosti. Něco jiného je, zda robot může mít vědomí, něco jiného, zda může myslet v tom výše uvedeném smyslu.

              1. Jakub Moravčík

                Mi šlo o to, že morálně odpovědný subjekt by měl být schopen tu morální odpovědnost také nějak nést – ve smyslu, že by měl být přístupný k vyvození důsledků z té odpovědnosti, tj. k přijetí trestu. A z toho plynou dvě otázky: a) co může být adekvátním trestem pro takového robota – takovým, který mu „nebude lhostejný“ (a je-li takový trest vůbec možný) a b) jak by tento trest vnímali např. zmínění pozůstalí robotových obětí – zda by dle nich tímto trestem robota a pouze robota bylo spravedlnosti učiněno zadost.

Comments are closed.