fbpx

Titulní stránka Fake News Rizikové jevy Negativní dopady generativní umělé inteligence budou vidět stále více

Generovaná pornografie a případ Taylor Swift

Jedním z vážných problémů spojených s generativní umělou inteligencí je vytváření sexuálně explicitních (často pornografických) fotografií/videí známých osobností - hereček, zpěvaček, ale také např. političek. Nemusí však jít vůbec  o celebrity - terčem se může stát v podstatě kdokoli. Vytvořit tyto materiály je extrémně snadné - aplikací, které toto umožňují, je mnoho a každý den vznikají další.

Nebezpečné jsou pak především tzv. deep fake technologie. Tyto technologie, využívající pokročilé algoritmy strojového učení, umožňují vytvářet extrémně realistická videa a audio nahrávky, ve kterých lze manipulovat s tvářemi, těly a hlasy lidí. Samozřejmostí je pak generování fotografií konkrétních osob v různých situacích (včetně sexuálně explicitních) během několika vteřin.

S pornografií generovanou umělou inteligencí má čerstvou zkušenost např. zpěvačka Taylor Swift. Ve středu 24. ledna 2024 se na sítí X (bývalý Twitter) rozšířily její sexuálně explicitní deepfakes fotografie vytvořené pomocí umělé inteligence, které za 19 hodin nasbíraly přes 27 milionů zhlédnutí a více než 260 000 lajků, než byl účet, který snímky zveřejnil, pozastaven. Deepfakes zobrazující Swift nahou a v sexuálních scénách se sítí X neustále šíří - nyní již také mimo tuto síť.

taylor_swift_deepfake.png

Sexuálně explicitní obrázek Taylor Swift generovaný AI (ořezáno)

Tento problém se však netýká pouze známých osobností, problémy s generovanou pornografií zneužívající identitu oznamují dívky z celého světa. Ve Spojených státech např. nahlásily desítky dívek středoškolského věku, že se staly oběťmi deepfakes. Již dříve došlo k obdobným případům také ve Velké Británii - upravené video, na kterém byly zachyceny pornoherečky, jejichž tváře byly nahrazeny tvářemi dospívajících dívek, přispělo k sebevraždě 14leté dívky. Podobné případy byly hlášeny také že Španělska či České republiky, o kterých jsme informali na našem portálu již v říjnu minulého roku. Zcela se tak naplnilo naše varování, že generovaná pornografie zachycující reálné osoby bude v budoucnu vážný problém. Budoucnost je nyní!

Generování deep fake videí politiků a narušování fungování demokratické společnosti - včetně voleb

Jedním z problémů, který deep fake videa přinášejí, je narušení důvěry ve veřejné instituce a politické procesy a ovlivňování demokratických procesů (např. voleb). Zfalšovaná videa/audionahrávky, zobrazující politiky v kompromitujících nebo kontroverzních situacích, mohou být snadno šířena prostřednictvím sociálních sítí a dalších médií. Tato videa/audionahrávky jsou často tak přesvědčivá, že je pro průměrného diváka těžké rozpoznat jejich nepravost. V důsledku toho může docházet k šíření dezinformací, které mohou ovlivnit veřejné mínění a volby.

S ovlivněním voleb pomocí těchto technologií má čerstvou zkušenost např. Slovensko - těsně před volbami se začala šířit podvržená nahrávka telefonického rozhovoru o manipulaci volebních výsledků mezi předsedou Progresivního Slovenska kandidujícího do Národní rady SR a novinářkou Monikou Tódovou. Rozhovor ale ve skutečnosti neproběhl, vše bylo vytvořenou umělou inteligencí. Za podvrh označila nahrávku jak slovenská policie, tak i fact-checkingová agentura AFP. Podvržená nahrávka se pak internetem šířila skutečně virálně a je zřejmé, že část voličů dokázala ovlivnit.

Zkušenost s podvodnými videi máme i v České republice, v průběhu prezidentských voleb v roce 2023 se např. šířilo internetem upravené video prezidentského kandidáta Petra Pavla.

Aktuálně pak koluje internetem např. podvodné deep fake video zaměřené proti ministru vnitra Vítu Rakušanovi.

mini_rakusandeepfake.jpg

Deep fake video zaměřené proti ministru Rakušanovi

Generativní umělá inteligence a podvody

Nástroje generativní umělé inteligence lze zneužít také k podvodné činnosti - a to např. na generování phishingových či vyděračských e-mailů, s jejich pomocí můžeme generovat také dezinformační obsah. Na podvody v textové podobě jsme si však již zvykli a nenecháme se jimi tak snadno ovlivnit - nezvykli jsme si však na deep fake videa, která jsou u online podvodů stále častější.

Typickými příklady podvodů, které zneužívají deep fake videa známých osobností, jsou nejrůznější druhy “podvodných investičních reklam”, které slibují za minimální investici ohromný zisk. Podvod je pak doplněn deep fake videi známých osobností (expremiér Andrej Babiš, Žantovský, Tykač apod.), které potvrzují, jak moc je investice skvělá a zaručená. Vše je navíc doplněno o loga skupiny ČEZ, Úřadu vlády ČR či stanice CNN Prima News. Díky těmto videím skutečně může část uživatelů internetu, kteří nedisponují dostatečnou úrovní mediální gramotnosti, sdělení uvěřit a do podvodných produktů investovat. S vysokou pravděpodobností ale budou podvedeni a o své finance přijdou.

andrej_babis_deepfake.png

Screenshot podvodného deepfake videa zneužívajícího
Andreje Babiše a značku CNN Prima News 

Zvykejme si, bude hůř

Vzhledem k dostupnosti nástrojů generativní umělé inteligence, které umožňují vytvářet výše uvedený problematický obsah, je třeba počítat s tím, že podobných případů bude přibývat. Je třeba se tedy připravit na to, že lidskou podobu  lze snadno podvrhnout a že je snadné napodobit jak vzhled člověka (jeho mimiku, gestiku), tak i také lidský hlas. AI nástroje mají potenciál radikálně transformovat způsob, jakým vnímáme digitální obsah, což s sebou nese řadu etických a právních dilemat. Půjde tento typ digitálního obsahu detekovat? Půjde jej regulovat? Co způsobí lidem? Čemu budeme v budoucnu důvěřovat? Jak budeme chránit identitu člověka?  To vše jsou otázky, na které musíme velmi rychle najít odpovědi…

Pro E-Bezpečí
Kamil Kopecký
Univerzita Palackého v Olomouci


Zdroje:

https://www.nbcnews.com/tech/misinformation/taylor-swift-nude-deepfake-goes-viral-x-platform-rules-rcna135669

https://apnews.com/article/taylor-swift-ai-images-protecttaylorswift-nonconsensual-d5eb3f98084bcbb670a185f7aeec78b1

https://www.nbcnews.com/news/us-news/little-recourse-teens-girls-victimized-ai-deepfake-nudes-rcna126399

https://ct24.ceskatelevize.cz/clanek/svet/respektujeme-volbu-slovenskych-obcanu-ovlivnily-ji-vsak-dezinformace-uvedla-jourova-1067

https://dennikn.sk/3608268/predvolebny-deepfake-nebol-kvalitny-proti-proruskym-kanalom-zakrocil-stat-coskoro-to-moze-byt-horsie/

https://www.facebook.com/policiaslovakia/posts/706246141540957?ref=embed_post

https://www.seznamzpravy.cz/clanek/domaci-politika-na-rakusana-vyrobili-kompromitujici-video-kde-vyhrozuje-cenzurou-244613#

https://news.sky.com/story/father-of-mia-janin-who-took-her-own-life-after-being-bullied-says-someone-must-be-held-accountable-for-her-death-13057103

Generativní umělá inteligence výrazně mění náš pohled na informace. Čemu budeme věřit? A jak ovlivní např. volby? 06. 03. 2024

Výtvory umělé inteligence jsou stále dokonalejší a v blízké době již nebudeme schopni rozeznat autentické záznamy skutečných událostí (např. v případě fotografií a videí) od vygenerovaných produktů...

AI a dezinformace 20. 01. 2024

Kognitivní zkreslení 18. 12. 2023

Klonování lidského hlasu s pomocí AI otevírá prostor pro nové druhy dezinformací. Naklonovat hlas kohokoli se stalo extrémně snadné. 22. 09. 2023

V posledním půl roce razantně narostl počet veřejně dostupných nástrojů, které uživatelům s pomocí umělé inteligence umožňují “naklonovat” lidský hlas. Samotný proces trénování a generování...

Proč lidé tvoří a šíří dezinformace? (animace) 17. 06. 2023

Společnost nedůvěry: konspirace a dezinformace v české společnosti 12. 06. 2023

Pokud člověk nedůvěřuje společnosti, ve které žije, a ani jejím institucím, jako jsou vláda, parlament, úřady či média, otevírá se prostor pro konspirace a dezinformace. Ukázal to výzkum pro...

Kdo rozhoduje o tom, co je a co není dezinformace? 18. 02. 2023

Ve světě, kde má každý přístup k internetu a může být publikován jakýkoliv obsah bez jakékoli kontroly, se stává stále těžší říci, co je a co není důvěryhodné a čemu vlastně můžeme věřit. V této...

Komentář: Volby prezidenta byly opět doprovázeny dezinformacemi. Klíčovým motivem byl strach z války. 29. 01. 2023

Prezidentské volby máme za sebou, máme novou hlavu státu, emoce pomalu opadávají, je tedy na čase shrnout si, jak probíhaly letošní volby z pohledu dezinformací a misinformací, a připomenout si...

Zneužívání náboženských symbolů v politice 21. 01. 2023

Náboženské symboly jsou velmi často využívány, ale také zneužívány v politice. V příznivcích či odpůrcích daného politika mají vzbudit dojem, že je věřící a vyznává náboženské hodnoty. Ve...

Názory, emoce a svoboda projevu 21. 01. 2023

Dnes si připomeneme, co je to svoboda projevu a proč je pro demokracii důležitá.

Partneři a spolupracující insitutuce

 

Generální partner projektu E-Bezpečí

logo o2

Další partneři a spolupracující instituce

 logo googlelogo nadaceo2logo msmtlogo mvcrlogo olomouclogo olomouckykrajlogo ostravalogo usembassylogo hoaxlogo policielogo proglaslogo rozhlaslogo aukrologo linkabezpecilogo nuvlogo csoblogo pcentrumlogo microsoft bwlogo czniclogo nukiblogo podaneruce

 

We use cookies

Na naší webové stránce používáme cookies. Některé z nich jsou nutné pro běh stránky, zatímco jiné nám pomáhají vylepšit vlastnosti stránky na základě uživatelských zkušeností (tracking cookies). Sami můžete rozhodnout, zda cookies povolíte. Mějte prosím na paměti, že při odmítnutí, nemusí být stránka zcela funkční.