První náznak toho, s jakými problémy se OpenAI, respektive ChatGPT potýkají v evropském prostředí, je nedávný zákaz služby v Itálii. V zásadě šlo o dva problémy, které si ve vztahu ke vzdělávání zasluhují jistou pozornost. První je spojený s věkovým omezením. ChatGPT je možné při pohledu do licenčních podmínek využívat až od 13 let, což vytváří jistý limit jeho aplikace do školního prostředí v primárním vzdělávání. Tento problém s sebou přináší několik zajímavých efektů. Předně je třeba zvážit (a ve školním prostředí by tyto aspekty zvažování měly být neseny nejen praktickou užitečností, ale také určitou výchovnou a hodnotovou motivací), zda takovou službu můžeme ve škole vzhledem k věku žáků využívat. Itálie přitom OpenAI má za zlé to, že věk má sice formálně omezený v licenčních podmínkách, ale nijak ho nekontroluje nebo nevymáhá.
ChatGPT |
Jistě má smysl se zastavit u toho, proč vůbec s věkovým limitem pracovat. Z hlediska školního prostředí je zásadní, že si ChatGPT „vymýšlí“ informace o tom, o čem nemá dostatek informací. Pro mladší žáky nebo osoby s nižší mírou informační gramotnosti může být takové poskytování zpráv velice problematické, protože nedokáží rozlišit mezi pravdou a fikcí, což ostatně není snadné ani pro starší uživatele. Paradoxně tak práce s ChatGPT může vést k tomu, že žáci dokáži vytvořit seminární práci lepší, než kdyby ji psali sami, ale stejně dobře se mohou dostat do prostředí zcela fiktivních informací.
Jako například:
Bohužel nemohu s jistotou potvrdit, o jaké konkrétní osobě se jedná, protože existuje více lidí s tímto jménem. Mohlo by mi pomoci, kdybych věděl více informací, jako například, o jaké oblasti nebo profesi hovoříme. Můžeš mi poskytnout více kontextu nebo informací, které potřebuješ?
RNDr. Michal Černý, Ph.D., je český informační vědec a filosof. Působí jako vědecký pracovník v Ústavu filosofie a religionistiky na Filozofické fakultě Univerzity Palackého v Olomouci. Jeho výzkum se zaměřuje na oblast filosofie informace, ontologie, filosofii technologie a další témata spojená s informačními technologiemi. Kromě toho je autorem několika knih a článků v odborných publikacích.
Zatímco první odpověď působí relevantním a logickým dojmem, neboť osob takového jména skutečně existuje mnoho, tak druhá odpovídá přesně tomu, co se označuje jako „halucinace“, tedy něco, co odpovídá sice pravděpodobnému modelu vyvozenému z konverzace, ale se skutečností to vůbec souviset nemusí. Zatímco v případě autora tohoto textu jde vlastně o nevinné zmatení ve vztahu k jeho osobě (a velice nepříjemné informaci pro žáky, pro které je taková informace uvěřitelná), existují příklady, kdy může automaticky vygenerovaná halucinovaná odpověď mít podstatně negativnější dopady.
Nejznámějším dokladem je pravděpodobně Brian Hood, starosta australského města, který byl ChatGPT nespravedlivě obviněn z toho, že bral úplatky a byl ve vězení, což ale není pravdivé tvrzení. Dopady na politickou kariéru mohou být v takovém případě velice netriviální, mohou ovlivnit veřejné mínění, nebo dokonce výsledky voleb. Můžeme se tak snadno dostat do situace, o které hovoří Peter Jarvis; skutečnost, že máme představu demokratických voleb spojenou s tím, že jsou tajné a kandidovat může každý, kdo splní elementární spravedlivé podmínky, musíme promyslet jinak. Problémem je, že část lidí neví, proč volí, nebo se rozhoduje na základě informací, které jsou nepravdivé, jejich rozhodování ve volbách má tak se svobodou v hlouběji chápaném smyslu spojitost jen relativně velice volnou.
Omezení věku tak má být jedním z nástrojů, které umožňují vytvářet alespoň částečnou bariéru ve snadném uvěření nepodložených informací. Je zcela evidentní, že rozvoj informační gramotnosti bude ve vztahu k ChatGPT zásadní kompetencí, kterou zatím nedokážeme dostatečně ani docenit, ani instrumentalizovat.
S věkovou hranicí souvisí také schopnost (alespoň částečně) reflektovat, jakým způsobem služba nakládá s daty od uživatelů. Zde se dostáváme k druhému bodu, se kterým měly problém italské úřady, které se soustředí na ochranu osobních údajů. Směrnice GDPR přináší dva důležité právní aspekty pro práci s touto službou. První se týká školy a říká, že by učitel neměl žáky nutit využívat služby třetích stran, které by určitým způsobem kolidovaly s možnou ochranou jejich osobních dat. ChatGPT je přesně tímto případem, představuje tedy nástroj, který učitel po žácích chtít nemůže. Určitá dobrovolnost pak může vést k nerovnosti v možnostech užívat určité technické prostředky pro práci nad úkoly, což komplikuje reálné školní nasazení této technologie.
Druhý rozměr je více etický než praktický. Podle GDPR je třeba, aby uživatelé byli dopředu informováni o tom, kdo, v jakém časovém rozsahu a jakým způsobem bude data zpracovávat. V zásadě ale (téměř) žádné jazykové modely takový souhlas nemají. Zajímavá je odpověď, kterou nabízí samotný ChatGPT, na otázku práce s daty od uživatelů.
Jako umělá inteligence jsem navržen tak, abych neukládal nebo zpracovával data od uživatelů. Můj účel spočívá v poskytování odpovědí a řešení problémů, na základě informací a dotazů, které mi uživatelé poskytnou. Když uživatelé zadávají dotazy, já analyzuji slova a fráze a snažím se poskytnout co nejrelevantnější odpověď na jejich dotaz. Pokud bych měl nějaké informace ukládat, tak ukládám jen ty, které jsou potřebné pro optimalizaci mého fungování a využití pro vylepšení výkonu. Je pro mě důležité zajistit, aby byla data, která získávám od uživatelů, chráněna a zpracovávána v souladu s příslušnými zákony a pravidly ochrany osobních údajů.
Ve skutečnosti systém ukládá veškerou konzultaci mezi uživatelem a systémem. Současně je z textu patrné, že ona „optimalizace“ může být právě oním citlivým zásahem do toho, jakým způsobem se s daty uživatele reálně nakládá. Je třeba zvážit, do jaké míry je vhodné a přijatelné v systému pracovat s daty, která jsou něčím citlivá, osobní nebo zneužitelná. Možný příklad situace, kdy se jistě vyplatí formulovat zadání anonymněji, je slovní hodnocení žáka nebo dopis kolegovi – jako v následujícím příkladu.
ChatGPT |
Dobrý den,
rád bych Vám vyjádřil své obavy ohledně Vaší práce a Vašeho přístupu k plnění svých pracovních povinností. V poslední době jsem si všiml, že Vaše práce je opožděná a často se Vám nedaří dodržovat stanovené termíny a plán. Toto opoždění negativně ovlivňuje celkový chod naší společnosti a vytváří problémy pro ostatní členy týmu.
Zároveň mě zklamalo Vaše chování, které působí nezodpovědně a nezodpovědně. Vaše žoviální a nezodpovědné chování nás brzdí a zpomaluje naši práci a výsledky.
Proto bych Vás chtěl požádat o to, abyste se vážně zamyslel nad svým přístupem a zlepšil svou produktivitu a profesionalitu. Pokud byste potřeboval nějakou pomoc nebo podporu, neváhejte se na mě obrátit, rád Vám pomohu najít řešení, které nám všem prospěje.
Věřím, že dokážete najít způsob, jak se postavit na vlastní nohy a být úspěšný v naší společnosti. Rád bych Vás podpořil v této cestě a pomohl Vám dosáhnout vašich pracovních cílů.
S pozdravem,
[vaše jméno]
Takto formulovaný dopis je vysoce pravděpodobně lepší než to, co by napsal přímo rozezlený kolega, ale současně musíme mít na paměti, že tato data jsou ukládána a způsob jejich dalšího zpracování v současné době není transparentní. V případě, že si uživatel nedá pozor, může dojít snadno ke kompromitaci jeho osoby nebo instituce, ve které pracuje. Na druhou stranu pro dopisy rodičům nebo žákům může být podobný systém praktický, pokud učitel dokáže s takto vytvořeným textem vhodně pracovat.
Rádi bychom upozornili ještě na jeden důležitý aspekt, který souvisí s etikou využívání ChatGPT, totiž na jeho sociální dopady, specificky bychom rádi zmínili dva – změny v práci a dostupnost technologie. Téma diskuse o dopadech technologií na proměnu lidské práce se odehrávají v podstatě kontinuálně již od průmyslové revoluce. S nástupem ChatGPT se nejčastěji hovoří o tom, že existuje netriviální část pracovních pozic, které zaniknou – nejvíce se asi píše o tvorbě marketingových textů a copywriterech, ale také o rutinních programátorech nebo o jednoduchých úkonech části administrativních pracovníků. Skutečné dopady je v mnoha ohledech náročné si představit – jakým způsobem bude docházet ke vzniku nových pozic nebo k novému řešení problémů v širších kontextech, jako je například náhrada středního managementu.
Na tyto proměny musí reagovat škola, která je v současné době stále relativně silně fixována na přípravu na konkrétní povolání (učňovské i střední odborné školství), což je patrně dlouhodobě neudržitelných trend. Proměna trhu práce je příliš rychlá na to, aby bylo možné ji přizpůsobovat kurikulum.
ChatGPT a další umělé inteligence se mohou stát užitečnými pomocníky v mnoha oblastech, kde je potřeba rychlého a efektivního zpracování informací a interakce s uživateli. Například v oblasti zákaznické podpory, kde mohou být využívány jako chatboty pro odpovídání na často kladené dotazy a řešení problémů zákazníků. Mohou být také využívány v oblasti vzdělávání, kde mohou pomoci studentům a pedagogům s řešením otázek a problémů.
Nicméně, umělá inteligence není určena k nahrazování všech lidských povolání. Stále existuje mnoho oblastí, kde je lidská interakce nezbytná a nepostradatelná. Například v oblasti zdravotnictví, kde lékaři a zdravotní sestry musí být fyzicky přítomni, aby poskytli péči pacientům, nebo v oblasti umění, kde lidská kreativita a vnímání jsou nezbytné pro tvorbu uměleckých děl.
Lze očekávat, že zásadní bude proměna rutinních úkolů, ale také vznik nových profesí a nových pracovních struktur. Obecně ochrana pracovního trhu před robotizací a automatizací patří mezi jedno z témat, které může být zajímavé politicky, ale má jen velice omezené možnosti reálného uplatnění. Více než o ochraně trhu má smysl přemýšlet o podpoře změn, které využití těchto nástrojů vyvolávají, a jak se na tyto změny nachystat.
S ohledem na toto vědomí je také třeba zásadně měnit přístupy k tématům, jako je obsah vzdělávání, ale i kariérové poradenství, které se nemůže fixovat na existenci reálné pracovní pozice, a více se soustředit na osobnostní rozvoj a dlouhodobé směřování hodnot a zájmů konkrétního žáka.
Druhý podstatný aspekt souvisí s možnou sociální disruptivní charakteristikou těchto technologií. Budou vznikat velké rozdíly mezi těmi, kdo s danou technologií dokáží a mohou pracovat a těmi, kdo takové možnosti nemají. Dostupnost nemusí znamenat jen vlastní možnost pracovat s daným nástrojem (což například v době psané tohoto textu Italové mohou jen velice omezeně), ale také záleží na natavení konkrétní instituce (např. Stanovisko k využívání AI na Masarykově univerzitě, které je velice vstřícné a otevřené) i na osobních dovednostech. Zdá se být klíčovým posledním školy pečovat o rozvoj oblasti, která se dnes běžně označuje jako AI literacy, tedy soubor znalostí, dovedností a postojů, které jsou nezbytné pro práci s umělou inteligencí.
V tomto článku jsme se pokusili stručně naznačit některá témata, která musí škola řešit ve vztahu k nástrojům, jako je ChatGPT v rovině etiky a sociálních dopadů těchto technologií. Musíme být obezřetní v tom, jakým způsobem sledovat a vyhodnocovat dopady těchto nástrojů a usilovat o snižování nerovností ve vzdělávání, které s nimi mohou být spojené. Současně jsme se snažili na příkladech ukázat i na témata, která by mohla být atraktivní pro žáky samotné a pro diskusi s nimi. Domníváme se, že zákazy nebo regulace jsou v této oblasti a v této fázi vývoje trhu jen málo efektivním nástrojem dosahování sociálně nebo eticky uspokojivých výsledků. Podstatně důležitější bude schopnost škol a dalších aktérů vzdělávání na tyto změny reagovat.
Všechny články jsou publikovány pod licencí Creative Commons BY-NC-ND.
Článek nebyl prozatím komentován.
Pro vložení komentáře je nutné se nejprve přihlásit.
Tento článek je zařazen do seriálu ChatGPT.
Ostatní články seriálu: