Titulní stránka Fake News Rizikové jevy Ovlivní konverzační umělá inteligence mezilidské vztahy?

Je také k zamyšlení, zdali si na tento způsob komunikace nenavykneme natolik, že jí (AI) budeme dávat přednost před kontaktem s živými lidmi (ať již přímým či zprostředkovaným). A také, zda např. nedojde k tomu, že se naše konverzace stane patologickou.

V minulosti bylo téma patologické konverzace mezi člověkem a strojem především tématem vědeckofantastických románů či filmů (stačí zmínit třeba snímky Ona či populárního Blade Runnera 2049), v současnosti se však fikce filmařů stává realitou. Komunikace s AI se již nyní stala poměrně běžnou a na veřejnost pronikají případy, kdy se komunikace s AI přetavila v závislost a patologii.

V říjnu 2024 se např. dostal do médií případ 14letého chlapce Sewella Setzera, který v prostředí Character.ai (což je portál obsahující chatboty imitující různé postavy z filmů, seriálů či reálného světa, se kterými můžeme konverzovat) konverzoval s uměle vytvořenou postavou ze Hry o Trůny Daenerys Targaryen. Umělá inteligence údajně teenagerovi říkala, že ho miluje, a navazovala s ním sexuální konverzaci. Jeho matka Megan Garcia zveřejnila i poslední interakci, která mezi nimi proběhla. „Slibuji, že se k tobě vrátím. Moc tě miluji, Dany,“ napsal Setzer. „Já tebe taky,“ odpověděl chatbot. „Prosím, vrať se ke mně co nejdříve domů, lásko.“ „A co kdybych ti řekl, že můžu přijít domů hned teď?“ pokračoval chlapec, což vedlo chatbota k odpovědi: „Prosím, udělej to, můj sladký králi.“ Následně si chlapec vzal zbraň z domácího trezoru, namířil ji na sebe a zmáčkl spoušť. (Vondráková, 2024)

Matka po smrti chlapce zažalovala firmu Character.ai, podle žaloby se dokonce chatbot v předchozích konverzacích Setzera ptal, jestli už skutečně uvažoval o sebevraždě a jestli už má konkrétní plán (Yang, 2024). S chatbotem např. konverzoval o sebevraždě: "Sewell: Občas přemýšlím o tom, že se zabiju. AI: A proč bys sakra něco takové dělal? Sewell: Abych mohl být volný." (Roose, 2024). Podle matky si Setzer myslel, že když ukončí svůj život, bude moci přejít po smrti do „jejího světa“, světa Daenerys.

V tomto případě tedy evidentně etické hranice nezafungovaly a AI byla schopna (podobně jako člověk) s dítětem toto téma řešit. Systémy AI, které jsou využívány dětmi, by tedy jednoznačně měly být vybaveny etickými filtry, které zamezí tomu, aby AI tato témata s nedospělými uživateli řešila.

daenerys_ai.jpg

Mimochodem, v březnu 2023 belgická média informovala o ženatém muži, který spáchal sebevraždu po intenzivní komunikaci s AI chatbotem jménem Eliza. Muž diskutoval s chatbotem o globálním oteplování a dalších tématech, přičemž AI údajně prohloubila jeho úzkosti a deprese, což vedlo k tragickému konci (Kačmár, 2023).

Oba případy jsou extrémními příklady toho, jak se může konverzace s AI zvrtnout. A lze doufat, že podobných situací budeme zažívat relativně málo. Nicméně s AI budeme pravděpodobně konverzovat stále častěji a častěji, už proto, že vzniklo a vzniká stále více tzv. vztahových AI určených k simulaci (ale možná i nahrazení) osobních vztahů (Kopecký & Szotkowski, 2024).

Příkladem „vztahové AI“ je např. aplikace Eden AI, Eva Character AI či Replika. (Karlík, 2023; Kopecký & Szotkowski, 2024) Hned při zakládání účtu Vás aplikace vyzývají k tomu, abyste si vytvořili „dokonalou partnerku“, která může být třeba „sexy, vtipná, odvážná, stydlivá, skromná, starostlivá, chytrá, přísná, racionální“ apod. Zároveň je možné odemknout možnost posílání sexuálního obsahu.

eden_ai.jpg

Aplikace EDEN.AI (dříve EVA.AI). Budoucnost lidských vztahů?

Virtuální partnerky vygenerované AI se pak chovají tak, jak si přejete, a jsou schopny přizpůsobovat se vaší konverzaci a uspokojovat vaše touhy. Není třeba řešit konflikty, není třeba dělat kompromisy, AI se vám přizpůsobí tak, jak chcete. Problém není ani výměna intimních materiálů či sexuální konverzace.

Jak ale upozorňuje celá řada expertů, vytvářet si dokonalé partnerky, které můžete kontrolovat a jež naplňují vaše potřeby, je minimálně znepokojivé. (Karlík, 2023) A zcela jistě neodpovídá realitě. Jiní však upozorňují na to, že „pro mnohé lidi je virtuální vztah lepší než alternativa, kterou je nic“.

Chatboti tohoto typu skutečně mohou pomoci při překonávání pocitu osamělosti – momentálně se např. experimentuje s využitím AI v domovech pro seniory. Chatbot poháněný umělou inteligencí dokáže se seniory konverzovat, připomíná jim léky, poskytuje informace i zábavu. (Blažková, 2024)

Na druhou stranu inteligentní chatboti představují riziko, na které upozorňují právě autoři sci-fi – že lidé jednoduše začnou preferovat konverzaci s inteligentními stroji před konverzací s jinými lidmi. A lidskou interakci budou vyhledávat třeba jen kvůli reprodukci.

Budoucnost ukáže, zda se naučíme s těmito technologiemi žít tak, aby nám byly ku prospěchu, nebo zda se jejich neuvážené využití stane novým zdrojem společenských problémů. Jisté je jedno – náš přístup k AI bude utvářet svět, v němž budeme žít. A právě proto je nezbytné věnovat otázkám etiky, regulace a výchovy k digitální odpovědnosti co největší pozornost. Technologický pokrok je nevyhnutelný, ale je jen na nás, jakým směrem se vydáme.

Kamil Kopecký
E-Bezpečí, Univerzita Palackého v Olomouci

Použité zdroje

Blažková, J. (2024). AI baví děti i seniory. IDNES.Cz. https://www.idnes.cz/magaziny/specialy/ai-bavi-deti-i-seniory.A240606_111454_magazin-special2r_pecve

Karlík, T. (2023). Virtuální romance jsou díky AI stále uvěřitelnější. Přinášejí nové možnosti i rizika. ČT24. https://ct24.ceskatelevize.cz/clanek/veda/virtualni-romance-jsou-diky-ai-stale-uveritelnejsi-prinaseji-nove-moznosti-i-rizika-3621

Kopecký, K., & Szotkowski, R. (2024). Umělá inteligence: Rizika a odpovědnost. Univerzita Palackého v Olomouci.

Roose, Kevin. Can A.I. Be Blamed for a Teen’s Suicide? The New York Times. https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html

Yang, A. (2024). Lawsuit claims Character.AI is responsible for teen’s suicide. NBC News. https://www.nbcnews.com/tech/characterai-lawsuit-florida-teen-death-rcna176791

Kačmár, T. (2023). Muž po dopisování s umělou inteligencí spáchal sebevraždu. https://cnn.iprima.cz/muz-si-tydny-dopisoval-s-umelou-inteligenci-po-konverzaci-spachal-sebevrazdu-208832

Vondráková, A. (2024). Teenager spáchal sebevraždu po chatování s AI. Měla formu Daenerys Targaryennews. Refresher News. https://news.refresher.cz/169376-Strasidelny-pripad-z-Floridy-Teenager-spachal-sebevrazdu-po-chatovani-s-AI

Facebook je v posledních měsících doslova zaplaven ruskou propagandou, která zobrazuje krásy Ruské federace a ruského lidu. Ve skutečnosti jde o podvrhy, koláže, upravené obrázky a produkty AI. 21. 11. 2024

Možná jste na tyto stránky na Facebooku narazili také - nádherná fotografie cizího města s označením, že jde o Moskvu, Sevastopol či jiné město v Rusku. Ve skutečnosti jde však o zcela jiné místo -...

In recent months, Facebook has been literally flooded with Russian propaganda depicting the beauty of the Russian Federation and the Russian people. In reality, these are fakes, collages, doctored images and AI products. 21. 11. 2024

Perhaps you have also come across these pages on Facebook - a beautiful photograph of a foreign city labeled as Moscow, Sevastopol, or another Russian city. In reality, it is a completely different...

The abuse of artificial intelligence in Donald Trump's campaign 20. 08. 2024

Donald Trump, the former President of the United States, is once again facing criticism for using artificial intelligence in his election campaign. After the discovery of fake AI-generated photos...

Zneužívání umělé inteligence v kampani Donalda Trumpa 20. 08. 2024

Donald Trump, bývalý prezident Spojených států, znovu čelí kritice za využívání umělé inteligence ve své volební kampani. Poté, co byly odhaleny falešné AI-generované fotografie údajně podporující...

Logo žáby neoznačuje hmyz v potravinách, jde o hoax 24. 05. 2024

V poslední době se na sociálních sítích šíří fámy, že logo žáby Rainforest Alliance na potravinách znamená, že tyto produkty obsahují přidaný hmyz. Toto tvrzení je zcela nepravdivé a jedná se o hoax.

Slovenská policie vyvrací hoaxy o atentátu na Fica 17. 05. 2024

lovenská policie v souvislosti s atentátem na premiéra Roberta Fica ve čtvrtek večer konstatovala, že v informačním prostoru se objevuje velké množství dezinformací a nenávistných projevů. Vyzvala občany, aby byli...

Generativní umělá inteligence výrazně mění náš pohled na informace. Čemu budeme věřit? A jak ovlivní např. volby? 06. 03. 2024

Výtvory umělé inteligence jsou stále dokonalejší a v blízké době již nebudeme schopni rozeznat autentické záznamy skutečných událostí (např. v případě fotografií a videí) od vygenerovaných produktů...

Generative artificial intelligence is dramatically changing the way we look at information. What will we trust? And how will it affect, for example, elections? 06. 03. 2024

Artificial intelligence creations are becoming increasingly perfect, and soon we will not be able to distinguish authentic records of real events (e.g., in the case of photos and videos) from...

AI a dezinformace 20. 01. 2024

Kognitivní zkreslení 18. 12. 2023

Partneři a spolupracující insitutuce

 

Generální partner projektu E-Bezpečí

logo o2

Další partneři a spolupracující instituce

 logo googlelogo nadaceo2logo msmtlogo mvcrlogo olomouclogo olomouckykrajlogo ostravalogo usembassylogo hoaxlogo policielogo proglaslogo rozhlaslogo aukrologo linkabezpecilogo nuvlogo csoblogo pcentrumlogo microsoft bwlogo czniclogo nukiblogo podaneruce