Domů > Spomocník > Základní vzdělávání > 5 největších rizik generativní AI
Odborný článek

5 největších rizik generativní AI

3. 5. 2023 Základní vzdělávání Spomocník
Autor
Jaroslav Mašek
Tento článek je součastí seriálu: Umělá inteligence

Anotace

Jaká jsou v současnosti největší rizika spojená s generativní umělou inteligencí? Avivah Litan, VP analytička společnosti Gartner, jich v nedávném rozhovoru uvedla celkem 5 a nabídla řešení, jak tato rizika eliminovat.
 

S generativní umělou inteligencí se doslova roztrhl pytel. Necháváme si pomocí ní vytvářet obsah v různých formátech, ať se jedná o texty, grafiku, zvuky, videa, programy ad., a aplikujeme ji na celou řadu problémů. Firmy, nejen ty technologické, jako by se lekly, že pokud AI okamžitě neintegrují do svých produktů, přestanou být konkurenceschopní. A uživatelé, ti začali generativní AI využívat naplno pro profesní i osobní potřebu, pohodlí, zábavu a nedokážou pochopit, jak bez ní dřív mohli existovat.

Vrhli jsme se zkrátka po hlavě na tuto novou technologii a začali vidět spoustu pozitivních hledisek a benefitů, které nám přináší, a příliš jsme přitom nemysleli na rizika, která jsou s ní spojena.

5 největších rizik generativní AI

Avivah Litan, VP analytička Gardneru, v nedávném rozhovoru s názvem Proč jsou důvěra a bezpečnost zásadní pro budoucnost generativní AI vyjmenovala 5 nejvýznamnějších rizik, která v dnešní době v souvislosti s generativní AI vyvstávají. Pojďme si je postupně přestavit včetně komentářů, které k nim uvedla.

1. Halucinace

Halucinacemi se myslí chyby, ke kterým jsou AI modely náchylné, protože i když jsou pokročilé, pořád to není člověk, a tak se spoléhají na trénink a data k poskytování odpovědí. Pokud používáte AI chatbota, pravděpodobně jste tyto halucinace zažili prostřednictvím nesprávného pochopení vaší otázky nebo očividně nesprávné odpovědi na tuto otázku.

„Tréninková data mohou vést k zaujatým, nesprávným nebo chybným odpovědím, které ale mohou být obtížně rozpoznatelné, zejména když jsou daná řešení stále více uvěřitelná a dá se na ně stále více spoléhat,“ říká Litan.

Vážný problém nastává, pokud se lidé na informace od těchto botů spoléhají.

2. Deepfakes

Deepfake využívá generativní umělé inteligence k vytváření videí, fotografií a záznamů hlasu, které jsou falešné, ale vypadají jako od jiné osoby. Dokonalými příklady jsou virální fotografie papeže Františka v nafukovací bundě nebo AI-generovaná píseň Drakea a Weeknd (audio), která získala stovky tisíc zhlédnutí.

„Tyto falešné obrázky, videa a nahrávky hlasu byly používány k útokům na celebrity a politiky, k vytváření a šíření zavádějících informací, a dokonce k tvorbě falešných účtů nebo přebírání existujících legitimních účtů,“ uvádí Litan.

Podobně jako halucinace mohou deepfakes přispět k masovému šíření falešného obsahu, což vede k šíření dezinformací, a stává se vážným společenským problémem.

3. Ochrana dat

Soukromí je také hlavním problémem u generativní AI kvůli častému ukládání uživatelských dat pro trénování modelu. Tento problém byl převažujícím faktorem, který donutil Itálii zakázat ChatGPT a tvrdit, že OpenAI není legálně oprávněna sbírat uživatelská data.

„Zaměstnanci mohou snadno prozradit citlivá a soukromá firemní data při interakci s generativními chatbotovými řešeními,“ říká Litan.

„Tyto aplikace mohou neomezeně ukládat informace zachycené prostřednictvím uživatelských vstupů, a dokonce je používat k trénování jiných modelů - což ještě více ohrožuje zachování mlčenlivosti,“ doplňuje.

Avivah Litan zdůrazňuje, že kromě ohrožení mlčenlivosti uživatelů mohou uložené informace rovněž představovat riziko „padnutí do špatných rukou“ v případě porušení či prolomení bezpečnosti.

4. Kybernetická bezpečnost

Pokročilé schopnosti generativních modelů AI, jako například tvorba kódu, mohou také padnout do špatných rukou a způsobovat obavy ohledně kybernetické bezpečnosti.

„Kromě pokročilejších hrozeb sociálního inženýrství a phishingu by útočníci mohli použít tyto nástroje pro snazší tvorbu zákeřného kódu,“ upozorňuje Litan.

Současně uvádí, že i přesto, že poskytovatelé generativních řešení AI obvykle zaručují zákazníkům, že jejich modely jsou trénovány na odmítání zákeřných kybernetických požadavků, tito dodavatelé nevybavují koncové uživatele schopností ověřit všechna zabezpečovací opatření, která byla implementována.

5. Copyright

Autorská práva jsou velkým problémem, jelikož generativní AI modely jsou trénovány na obrovském množství internetových dat, která jsou použita k vytváření výstupů. Tento proces trénování znamená, že práce, jež nebyly explicitně sdíleny původním zdrojem, mohou být použity k vytváření nového obsahu.

Copyright je zejména problematickým tématem u AI-generovaného umění jakéhokoli druhu, včetně fotografií a hudby. K vytvoření obrazu ze zadání se nástroje generující AI, jako například DALL-E, odkážou zpět na velkou databázi fotografií, na kterých byly trénovány. Výsledkem tohoto procesu může být, že finální produkt obsahuje prvky práce nebo stylu umělců, které jim nejsou přisuzovány. Vzhledem k tomu, že konkrétní práce, na kterých jsou generativní AI modely trénovány, nejsou explicitně uvedeny či známy, je obtížné tyto copyrightové problémy řešit.

Co s tím?

Navzdory mnoha rizikům spojeným s generativní umělou inteligencí nezastává Avivah Litan názor, že by organizace měly přestat tuto technologii zkoumat. Místo toho by měly vytvořit celoorganizační strategii zaměřenou na řízení důvěryhodnosti, rizik a bezpečnosti týkajících se AI.

„Vývojáři AI musí naléhavě spolupracovat s politickými činiteli, včetně nových regulačních autorit, které by mohly vzniknout, aby stanovily strategie a postupy pro dohled a řízení rizik spojených s generativní AI,“ shrnuje závěrem.

[1]

Opravdová rizika generativní AI ve škole

V souvislosti s použitím generativní AI ve škole jsme doposud řešili převážně rizika spojená s podváděním žáků. Možná by bylo lepší začít se více věnovat rizikům, která zmiňuje Avivan Litan, protože ta mají dopad nejen na učitele a školu, ale na celou společnost. Dokážeme to?

Literatura a použité zdroje

[1] – ORTIZ, Sabrina. The 5 biggest risks of generative AI, according to an expert. 2023. [cit. 2023-4-27]. Dostupný z WWW: [https://www.zdnet.com/article/the-5-biggest-risks-of-generative-ai-according-to-an-expert/?utm_source=artifact].

Licence

Všechny články jsou publikovány pod licencí Creative Commons BY-NC-ND.

Hodnocení od uživatelů

Článek nebyl prozatím komentován.

Váš komentář

Pro vložení komentáře je nutné se nejprve přihlásit.