fbpx
Nové plakáty na školní nástěnky od E-Bezpečí
22. 04. 2024

Vyzkoušejte naše nové letáčky pro školní nástěnky: Základní pravidla kybernetické bezpečnosti a Jak používat umělou inteligenci eticky.

Číst dál...

Online videokurz AI začínají využívat policisté
09. 04. 2024

Online videokurz E-Bezpečí začínají využívat policisté, k seznámení s umělou inteligencí je vynikající, odpadá nutnost scházet se prezenčně... děkujeme za...

Číst dál...

Objednávky
05. 04. 2024

Vzdělávací akce pro vaši školu - žáky, učitele, rodiče - můžete objednávat prostřednictvím e-mailu Tato e-mailová adresa je chráněna před spamboty....

Číst dál...


Home Projekt Fake news Články o dezinformacích a konspiracích Klonování lidského hlasu s pomocí AI otevírá prostor pro nové druhy dezinformací. Naklonovat hlas kohokoli se stalo extrémně snadné.

Přečteno jinde










































Podpořte nás

Podpořte naše aktivity a pomozte dětem a dospělým v nouzi. Již 15 let pomáháme dětem a dospělým řešit jejich problémy na internetu. Zapojte se i vy! Každá pomoc se počítá! Stačí kliknout na tlačítko DONATE.

Přihlásit odběr novinek


mini_humanvoice.pngV posledním půl roce razantně narostl počet veřejně dostupných nástrojů, které uživatelům s pomocí umělé inteligence umožňují “naklonovat” lidský hlas. Samotný proces trénování a generování autentického lidského hlasu s pomocí umělé inteligence trvá pouze několik minut. Výsledek je pak skutečně od původního hlasu téměř k nerozeznání, což otevírá celou řadu možností, jak lze tuto technologii využít, ale třeba také zneužít.

Přednedávnem Český rozhlas informoval své čtenáře o tom, že si nechal experty ze Západočeské univerzity vytvořil klon hlasu Karla Gotta, pomocí kterého pak dnes již zesnulý umělec virtuálně “načetl” část své autobiografie (tzv. projekt Gott navždy). Tvůrci se při klonování hlasu drželi přísných etických principů, vše vzniklo se souhlasem rodiny zesnulého, zároveň celá situace představovala i zajímavý právní problém. Tvůrci také garantovali, že hlas bude syntetizovat pouze to, co zesnulý umělec skutečně řekl či napsal.

Problémem je, že vytvořit podobný záznam s využitím umělé inteligence je v současnosti velmi jednoduché a nástrojů, které umožňují naklonovat lidský hlas je celá řada. Jejich používání je pak často zdarma, případně za velmi mírný poplatek. K tomu, abyste dokázali lidský hlas naklonovat, stačí jen několikaminutový zvukový záznam, který obsahuje mluvené slovo konkrétního člověka. Extrahovat lidský hlas však můžete také např. z videa. Umělá inteligence záznam lidského hlasu zanalyzuje a vygeneruje zvukový model. Poté stačí umělé inteligenci napsat, co přesně má daný syntetizovaný hlas říkat, a výsledek máme během chvíle k dispozici a ke stažení.

V praxi pak můžeme velmi rychle vytvářet syntetizované hlasy umělců, politiků či jiných významných osobností, vkládat jim do úst slova, která nikdy nepronesli, a vydávat je za skutečnost. To vše bude opět klást zvýšené nároky na uživatele online médií, kteří si musí uvědomit, že napodobit konkrétní lidský hlas je velmi snadné. Problém nastane také v případě odposlechů – jak prokázat, že odposlech skutečně zachycuje konkrétního člověka, a ne pouze jeho syntetizovaný hlas?

Ukázka naklonovaného hlasu vytvořená za 6 minut

Problém mohou představovat také telefonáty – např. Jak například poznat, že nám zprávu v hlasové schránce zanechalo právě naše dítě, a nejde o jeho klonovaný hlas? Jak poznat, že nám skutečně volá naše známá paní Nováková z České pojišťovny a ne její klon?

V současnosti není automatizovaná syntéza nahraného lidského hlasu ještě zcela dokonalá, AI chybuje především v případě frázování či intonace, na druhou stranu vývoj jde stále kupředu a můžeme předpokládat, že za rok budou volně dostupné nástroje a jejich výstupy daleko lepší než nyní. A rozpoznat autentický hlas živého člověka od hlasu syntetizovaného se stane stále obtížnější.

Tím se dostáváme k problému mediální a informační gramotnosti – jsme jako společnost připraveni na nárůst tohoto typu (dez)informací ve veřejném prostoru? Dokážeme odhalit, že s námi jejich prostřednictvím někdo manipuluje? Dokážeme vyvinout nástroje, které by umožňovaly detekci naklonovaných hlasů? Jak se přizpůsobíme nové situaci?

Pro E-Bezpečí
Kamil Kopecký
Univerzita Palackého v Olomouci

 


 

Výsledky projektu E-Bezpečí (2012-2022)

panel
160000 +
proškolených žáků ZŠ a SŠ
panel
45000 +
proškolených dospělých
panel
7000 +
podpořených obětí kyberkriminality
panel
250 +
vzdělávacích akcí ročně
panel
5500 +
odhalených případů kyberkriminality
panel
160000 +
unikátních návštěvníků webu ročně

Ocenění projektu E-Bezpečí

pohar
KYBER Cena 2023
(1. místo)
pohar
Nejlepší projekt prevence kriminality na místní úrovni 2023
(1. místo)
pohar
Evropská cena prevence kriminality 2015
(1. místo)

Partneři a spolupracující instituce

 

Generální partner projektu E-Bezpečí

logo o2

Další partneři a spolupracující instituce

 logo nadaceo2logo googlelogo msmtlogo mvcrlogo olomouclogo olomouckykrajlogo ostravalogo hoaxlogo policielogo rozhlaslogo linkabezpecilogo microsoft bwlogo czniclogo nukiblogo podanerucelogo googleovachamp_logo.png

 

We use cookies

Na naší webové stránce používáme cookies. Některé z nich jsou nutné pro běh stránky, zatímco jiné nám pomáhají vylepšit vlastnosti stránky na základě uživatelských zkušeností (tracking cookies). Sami můžete rozhodnout, zda cookies povolíte. Mějte prosím na paměti, že při odmítnutí, nemusí být stránka zcela funkční.