Metodický portál RVP.CZ prochází změnami. Více informací zde.
logo RVP.CZ
Přihlásit se
Titulka > Modul články > Základní vzdělávání

Zobrazit na úvodní stránce článků

Titulka > Modul články > Základní vzdělávání > Dezinformace na Facebooku se nedají zast...

Dezinformace na Facebooku se nedají zastavit

Zpráva o aktuálním vývoji situace ve věci blokování nevhodného obsahu na Facebooku na základě zjištění vyplývajících z rozhovorů redaktorky MIT Technology Review Karen Hao s šéfem skupiny strojového učení FB Joaquininem Quiñonero Candelou.

Přestože se nezabývá přímo vzděláváním, sleduji MIT Technology Review. Objevují se tam zprávy s přesahem do různých oborů. Hodně prostoru je věnováno umělé inteligenci. Aktuálně mě zaujal článek Karen Hao reflektující její zjištění ve věci implementace opatření Facebooku (FB) v boji proti šíření dezinformací (How Facebook got addicted to spreading misinformation) [1]. Je postaven primárně na opakovaných rozhovorech, které Karen vedla s šéfem skupiny zabývající se na FB strojovým učením, jímž je Joaquin Quiñonero Candela.

Možná bude nejlepší začít připomenutím, jak je strojové učení na FB (a jiných platformách) přibližně od roku 2014 využíváno. Všichni přihlášení uživatelé se nějak projevují – něco hledají, vkládají fotky či videa, píší vzkazy, nebo dokonce občas i delší texty, sdílejí. Zajímavé může být dokonce i to, když se někde zdrží, nebo jakým tempem píší. Všechna tato data se ukládají a umělá inteligence na jejich základě vytváří profil uživatele, z něhož je patrné, jaké preference každý uživatel má. Na jejich základě mu pak systém předkládá jemu přizpůsobený obsah. Onen proces vytváření profilu a jeho soustavná aktualizace se děje zcela automaticky. Jedná se o strojové učení, v jehož rámci počítačový systém poznává své uživatele.

Administrátoři mají prostřednictvím algoritmů možnost ovlivňovat to, jak jsou tyto poznatky využívány. Kdysi jsme při vysvětlování pojmu datafikace popisovali, jak Google dokáže zjistit dříve, zda se blíží epidemie chřipky, než zdravotníci (Co je datafikace?). To jsme tehdy ještě předpokládali, že bude tato technologie primárně sloužit ku prospěchu lidstva. Ukazuje se však, že provozovatelům podobných platforem (soc. sítí) jde mnohem více o vlastní prospěch než o blaho uživatelů. Chtělo by se mi říci zákazníků, ale to by neodpovídalo realitě. Služby, o kterých je řeč, jsou typicky „zadarmo“.

Algoritmus pracující s výsledky analýzy činnosti uživatelů může odhalit mnoho zajímavých věcí – nákupní preference, sklony k sebevraždě, politickou orientaci uživatele, podezření na terorismus apod. Nejsem si jist, zda si všichni již dostatečně uvědomujeme, jak podobná zjištění může využít totalitní stát (Když velký bratr dostane velká data). Podívejme se raději na důsledky, jaké to má pro nás, kteří dosud žijeme v demokracii (možná spíše v kapitalismu dohledu).

U nás se platformy podobné FB důsledně orientují na generování zisku pro své akcionáře. Jak to dělají, vysvětluje Foggův model ovládání lidí technologiemi. Zjednodušeně řečeno, snaží se je udržet co nejdéle přihlášené a bdělé. K tomu je samozřejmě třeba vědět, který obsah bude toho kterého uživatele zajímat natolik, že se jím bude zabývat i v situaci, kdy by měl dělat něco jiného. Důsledky jsou docela závažné. Píšeme o nich často:

V roce 2018, po vypuknutí aféry s Cambridge Analytica (ovlivňování prezidentských voleb v USA v roce 2016), se FB snažil vyvolat dojem, že se vydává na cestu boje proti šíření dezinformací. Quiñonero dostal za úkol věnovat se zkoumání sociálních dopadů používaných algoritmů. Snaha vylepšit pověst firmy byla zjevná. Cílem mělo být odfiltrovat dezinformace a nenávistné projevy. Ukázalo se ale, že to nebude tak snadné. Úspěšná realizace všech úkolů je u FB posuzována vždy hlavně podle toho, zda výsledek přispívá k růstu využívání služeb uživateli. Potíž je v tom, že extrémní názory přitahují pozornost mnohem více (Lži se po internetu šíří snadněji než pravda). Důsledkem bylo očekávatelné zjištění, že nasazení algoritmů, které tyto jevy potlačují, vede ke snížení zájmu uživatelů. Proto je jejich plošné využití na FB velmi pomalé a neochotné. Často naopak dochází k tomu, že jsou kontroverzní skupiny – dokud neporušují zákony – propagovány, což vede ke zvětšující se polarizaci názorů (Rostoucí dissensus jako problém mediální gramotnosti).

Některé aktuální aféry však přece jen přispěly k tomu, že v roce 2020 začal FB ty nejhorší dezinformace přece jen potlačovat (např. zpochybňování holocaustu, odpor proti očkování, hnutí QAnon ad.) [1]. Stalo se tak ale teprve poté, co se prokázalo, že měl FB podíl na vzniku genocidy v Barmě [2]. Díky tomu FB čelil riziku masivního odlivu uživatelů.

Skutečnost, že po internetu se šířící informace nereflektují realitu, vede ke zkreslení funkce strojového učení postaveného nad těmito daty. Velmi často se stává, že výsledkem je překvapen samotný autor použitého algoritmu. Vzpomeňme např. na krátký život chatbota Tay od Microsoftu, který se během pár hodin kontaktu s lidmi stal rasistou [3]. Známou skutečností je, že třeba právě strojovým učením umožněné rozpoznávání obličejů čelí problémům se zkreslením pravděpodobně proto, že své schopnosti budovalo na převládajícím vzorku bílých lidí. Asiaty a černochy zatím rozpoznává daleko hůře [4].

FB se začal problematice zkreslení ve zvýšené míře věnovat teprve tehdy, když v létě 2018 (asi díky strachu z prohry v nadcházejících volbách) začal president Trump vyhlašovat, že Facebook, Twitter a Google vykazují známky antirepublikánského zkreslení (preferují demokraty). Majitel FB Mark Zuckerberg na to reagoval tak, že pověřil Quiñonera věnovat se ve zvýšené míře právě potlačování zkreslení [1]. I na tomto příkladu je vidět, že teprve riziko možných nepříjemných následků pro budoucí růst platformy donutí management řešit i takové problémy, které mohou mít negativní okamžitý vliv na zisk.

Jak asi všichni víte, nakonec FB i Twitter po útocích Trumpových příznivců na Kapitol 6. ledna 2021 v situaci, kdy již bylo o novém prezidentovi Bidenovi rozhodnuto, jeho účet dočasně zablokoval [5]. Karen se opakovaně snažila donutit Quiñonera odpovědět na otázku, zda bylo možné odhalit na FB odehrávající se domluvu útočníků včas a znemožnit ji. Nakonec dostala ne příliš povzbudivou odpověď: „Já nevím!

Jak vidno, preventivní řešení podobných problémů zatím nelze očekávat. Umělá inteligence umí analyzovat jevy, které se již staly. Neumí ale hádat budoucnost. Zvláště tehdy, budou-li se hromadně využívané platformy nadále orientovat jen na růst, budou rizika budoucího vývoje stále větší.

V následující přednášce říká Karen přibližně toto: „Jsme uprostřed převratných změn způsobených technologiemi. Ty mají bohužel zásadní nedostatky. Přesto věřím, že jsme schopni je odstranit. Diskuze o využití umělé inteligence však nutně musí předcházet její aplikaci, ne naopak.

Why We Need To Democratise How We Build AI | Karen Hao | TEDxGateway

V případě pochybností o aktuálnosti či funkčnosti příspěvku využijte tlačítko „Napište nám“.
Napište nám
Celkové hodnocení článku
Přidat komentář Citovat článek