AI posiluje společenské stereotypy. Mediální vědec Matthew Jordan mírní nadšení z umělé inteligence.
Homepage
Brno - Masarykova univerzita hostila přednášku amerického mediálního teoretika Matthewa Jordana z Penn State University. Pod názvem „AI jako antidemokratická komunikační praxe“ Jordan podrobil kritice současné nadšení z umělé inteligence. Varoval, že zatímco se lidstvo opájí vidinou rostoucí produktivity, v tichosti podepisuje „smluvní doložky“, které mohou vést k rozkladu kritického myšlení i demokratických hodnot.
Kdo je Matthew Jordan?
Americký mediální vědec, který působí jako vedoucí katedry filmové produkce a mediálních studií na Penn State University a zároveň jako ředitel iniciativy News Literacy Initiative.
Líbánky s algoritmem a Kunderova past
Jordan svou přednášku otevřel citací Milana Kundery z Knihy smíchu a zapomnění. Podle ní každý milostný vztah spočívá na nepsané dohodě uzavřené v prvních týdnech, kdy jsou milenci ošáleni „růžovými brýlemi“. Podle Jordana se v podobném stavu nacházíme i ve vztahu k AI.
„Ó milenci! Buďte opatrní v těch nebezpečných prvních dnech! Jakmile jednou přinesete snídani do postele, budete ji muset nosit navždy,“ citoval Kunderu s tím, že si neuvědomujeme, jaké precedenty právě teď ustavujeme jako normu. To, co dnes vnímáme jako usnadnění práce, se podle něj zítra stane povinným standardem, bez kterého nebudeme schopni fungovat.
Investice bez návratnosti?
Zatímco vizionáři jako Sam Altman mluví o AI jako o motoru nové průmyslové revoluce, Jordan poukázal na data, která tuto utopii zpochybňují. Odkázal na analýzu banky JP Morgan, podle které by AI průmysl potřeboval generovat roční příjmy ve výši 650 miliard dolarů, aby investorům zajistil návratnost. V přepočtu na běžného uživatele to znamená, že by každý majitel chytrého telefonu musel za AI služby platit přibližně 800 korun měsíčně.
Tuto skepsi potvrzuje i zpráva Goldman Sachs. Analytici v ní varují, že extrémní kapitálové výdaje, převážně investice do infrastruktury datových center a čipů zatím nepřinášejí odpovídající růst produktivity. Ekonom Daron Acemoglu v této zprávě odhaduje, že AI v příští dekádě automatizuje jen zlomek pracovních úkolů, což neodpovídá současné burzovní horečce.
Energetický hlad
Jordan dále upozornil na environmentální cenu AI. Podle Mezinárodní energetické agentury (IEA) spotřebovávají datová centra v USA již nyní přibližně 5 % veškeré elektřiny. Do roku 2026 má jejich spotřeba dosáhnout úrovně celého Japonska.
Tento trend ilustroval na příkladu společnosti Microsoft. Ačkoliv se firma zavázala k uhlíkové neutralitě, její vlastní zpráva o udržitelnosti za rok 2024 přiznává, že emise společnosti vzrostly o téměř 30 %. Důvodem je právě masivní výstavba pro AI. Technologičtí giganti se tak v tichosti vracejí k fosilním zdrojům ve jménu technologického pokroku.
Digitálního balast a kyberpropaganda
Kvalita informací generovaných AI je podle Jordana alarmující. Citoval studie, které ukazují, že jazykové modely halucinují v 40 až 45 % případů. Problémem není jen technická chyba, ale i systémová předpojatost (bias). Modely jsou trénovány na obsahu sociálních sítí, čímž pouze recyklují a upevňují společenské stereotypy.
Tento chaos navíc využívají autoritářské režimy. Organizace NewsGuard identifikovala k roku 2024 již přes 700 nedůvěryhodných zpravodajských webů plně generovaných umělou inteligencí. Tato propaganda z Ruska či Číny nezaplavuje prostor pravdou, ale digitálním odpadem, který má občany donutit rezignovat na snahu rozlišit fakta od lži.
Dobrovolná ztráta dovedností
Nejnebezpečnějším důsledkem je však podle amerického vědce kognitivní atrofie – tedy zakrnění schopnosti myslet. Jordan odkázal na výzkum ze své domovské univerzity, podle kterého lidé přijímají tzv. AI slop (nekvalitní, chybný výstup) v polovině případů, pokud je pro ně odpověď příjemná nebo potvrzuje jejich názor.
Závislost na těchto nástrojích vede k procesu ztráty dovedností, kdy delegujeme úkoly na stroj a postupně zapomínáme, jak je vykonávat sami. To, co firmy prezentují jako posílení schopností, je podle Jordana často jen iluzí. „Učíme se zlomek toho, co bychom se naučili při skutečném vykonávání práce,“ varoval. AI podle něj kultivuje sebestředný přístup. Uživatel nevede s nikým dialog, pouze vydává příkazy a pasivně přijímá výsledky, což podle Jordana podkopává demokracii založenou na vzájemné lidské domluvě.