Domů > Spomocník > Základní vzdělávání > Tramvajové dilema a informatické myšlení
Odborný článek

Tramvajové dilema a informatické myšlení

Anotace

Článek vysvětluje zajímavý problém, na který narážejí vývojáři systémů řízení autonomních (samořídicích) vozidel. Komu v případě nevyhnutelnosti nehody více ublížit?

Tramvajové dilema (trolleyologie) existuje již hodně dlouho. V roce 1967 s ním přišla filozofka Philippa Foot v souvislosti s problematikou potratů. Jedná se o etický problém původně řešený již v antice a později katolickou církví (Tomáš Akvinský), s nímž se dnes nejčastěji setkávají lékaři (kromě potratů též např. eutanázie) a dostává se i do roviny právní. Vžilo se pro něj též označení Princip dvojího účinku. Právě Philippa pro vysvětlení původně použila příklad, který dal tomuto dilematu název.

Tramvaj se řítí na pět lidí, kteří o tom nevědí. Na vedlejší koleji je jen jedna osoba, kterou vůz srazí, dojde-li k přehození výhybky. Náhodný kolemjdoucí situaci sleduje a výhybku může přehodit. Otázka zní: je eticky legitimní to udělat? [1]

Ve skutečnosti jednoznačně správné řešení neexistuje. Je-li tím, kdo má aktivně zasáhnout a přehodit výhybku člověk, je to skutečně těžké dilema. Je to totiž on, kdo způsobí smrt jednoho člověka, zatímco, když neudělá nic, odpovědnost neponese. Přitom navíc neví, co se může přihodit během zbývajícího času, než vůz dojede na místo. My necháme filozofy, ať si tímto hypotetickým etickým problémem lámou hlavu, a podíváme se na věc trochu praktičtěji.

Ten, kdo přehazuje výhybku, dnes nutně nemusí být člověk. Je-li to automat (robot), celá věc bude vypadat docela jinak. Stejný problém musí občas řešit například autonomní (samořízené) vozidlo. Představte si analogickou situaci: Auto se řítí na stánek se zeleninou, u něhož stojí 5 lidí. Existuje možnost strhnout řízení směrem, kde stojí jeden člověk. Co se má stát? [2]

Problém najednou dostává úplně jiné dimenze. Už tu není řidič, který se musí ve zlomku vteřiny rozhodnout, co udělá (skoro jistě by v té situaci dal přednost tomu řešení, které by bylo nejvýhodnější pro něj samotného). Je zde umělá inteligence pracující s funkcí strojového učení, které lze určitý postup ve specifických situacích vnutit. Má preferovat minimalizaci následků, tj. zabít jen jednoho člověka? Co když je to dítě? Která varianta znamená větší riziko pro cestující? Má dát přednost ochraně majitele (cestujících)?

Zvolené řešení přestává být etickým problémem řidiče a stává se problémem vývojářů společností, které autonomní vozidla vyvíjejí. Jak se k tomuto problému staví lidé napříč etniky a kontinenty s pomocí svých studentů zkoumá Iyad Rahwan, profesor MIT Media Lab a ředitel Max Planck Institute for Human Development. Vyvinuli nástroj, který prostřednictvím webu měří reakce návštěvníků na různé problémové situace (Moral Machine). Řekl bych, že by jeho vyzkoušení mohlo být docela zajímavým doplňkem výuky. Výsledky shrnuje článek v Nature [3] a následující video:

Moral Machines: How culture changes values

Ukazuje se, že navzdory různým etnickým odlišnostem je deklarovaným převažujícím zájmem většiny nastavit algoritmy autonomních vozidel na minimalizaci následků bez ohledu na pasažéry (majitele). Problém však nastává v okamžiku, kdy se z globálně myslícího občana stane zákazník. Většina by si nakonec vybrala vůz, který poskytuje maximální ochranu cestujícím na úkor ostatních účastníku silničního provozu (viz Iyad Rahwan - What moral decisions should driverless cars make?, TEDxCambridge, 2016).

To znamená, že je třeba, aby si společnost potřebné řešení vynutila. Z pohledu státu však není na první pohled jasné, jak se zachovat. V úvahu je třeba vzít též tu skutečnost, že již stávající úroveň schopností automatů řídit je vyšší než u živých řidičů. Neusínají, nepijí, netelefonují, nenechají se rozptylovat spolujezdkyní apod. [4] Následky nehod lze proto snižovat dokonce i zaváděním zákazníky žádaných sobecky se chovajících algoritmů. Zdá se, že nastal čas problematiku nastavení preferencí u autonomních vozidel diskutovat a řešit. Lze na ní též ukázat, jak naše životy již dnes ovlivňují technologie vybavené umělou inteligencí, i to, že jejich činnost lze potřebám lidí přizpůsobit.

Vypadá to, že nejdále jsou v této věci v Německu. Již v roce 2017 Etická komise automatického řízení publikovala závazná pravidla, kde, kromě jiného, stojí: V případě neodvratné nehody je přísně zakázáno dělat rozdíly mezi účastníky na základě jejich osobních vlastností (věk, pohlaví, fyzický či mentální stav). Systém automatizovaného řízení je eticky ospravedlnitelný pouze tehdy, když povede ke snížení počtu nehod. [5]

Na odlehčení celkem vážného problému přidám nakonec specifické řešení tramvajového dilematu dvouletým dítětem.

A two-year-old's solution to the trolley problem

Literatura a použité zdroje

[1] – ČERNÝ, David. Trolleyologie: díl první. 2014. [cit. 2019-3-5]. Dostupný z WWW: [http://kontrafikce.blogspot.com/2014/08/trolleyologie-dil-prvni.html].
[2] – CASSANI DAVIS, Lauren. Would You Pull the Trolley Switch? Does it Matter?. 2015. [cit. 2019-3-5]. Dostupný z WWW: [https://www.theatlantic.com/technology/archive/2015/10/trolley-problem-history-psychology-morality-driverless-cars/409732/].
[3] – MAXMEN, Amy. Self-driving car dilemmas reveal that moral choices are not universal. 2018. [cit. 2019-3-5]. Dostupný z WWW: [https://www.nature.com/articles/d41586-018-07135-0].
[4] – WAMSLEY, Laurel. Should Self-Driving Cars Have Ethics?. 2018. [cit. 2019-3-5]. Dostupný z WWW: [https://www.npr.org/2018/10/26/660775910/should-self-driving-cars-have-ethics?t=1551723243021].
[5] – Ethics Commission on Automated Driving presents report. 2017. [cit. 2019-3-5]. Dostupný z WWW: [https://www.bmvi.de/SharedDocs/EN/PressRelease/2017/084-ethic-commission-report-automated-driving.html].

Licence

Všechny články jsou publikovány pod licencí Creative Commons BY-NC-ND.

Hodnocení od uživatelů

Článek nebyl prozatím komentován.

Váš komentář

Pro vložení komentáře je nutné se nejprve přihlásit.

Článek není zařazen do žádného seriálu.