fbpx

Home Rizikové jevy Další témata ChatGPT umožňuje běžným uživatelům vytvářet nejrůznější druhy škodlivých kódů, lze očekávat nárůst internetových podvodů všeho druhu.

Podpořte nás

Podpořte naše aktivity a pomozte dětem a dospělým v nouzi. Již 15 let pomáháme dětem a dospělým řešit jejich problémy na internetu. Zapojte se i vy! Každá pomoc se počítá! Stačí kliknout na tlačítko DONATE.

Remove


mini_greenhacker.pngV dnešním textu se zaměříme na jeden z řady problémů, které jsou spojeny se zneužitím generativní neurální sítě ChatGPT. Nástroj ChatGPT je masově rozšířený a je využíván stovkami milionů uživatelů z celého světa. I když jde nástroj s mnoha užitečnými aplikacemi, může být také - bohužel - zneužit pro vytváření škodlivých kódů a malware. A právě to si představíme v našem dnešním textu. Úvodní poznámka: Pokud si chcete tento článek užít a máte připojenou webovou kameru, určitě ji povolte.

Jak již bylo řečeno, dnes se podíváme především na programování škodlivých počítačových kódů a malware... a v této oblasti toho ChatGPT umí skutečně mnoho, umí třeba:

1. Generovat kód v různých programovacích jazycích
ChatGPT je navržen tak, aby byl schopen generovat kód v různých programovacích jazycích na základě uživatelského vstupu. Tato schopnost může být zneužita kyberzločinci, kteří by mohli vytvářet škodlivý kód nebo malware rychleji a efektivněji. Tím se zvyšuje riziko šíření nových a sofistikovanějších útoků na počítače a sítě.

2. Generovat podvodné zprávy např. v rámci phishingu
ChatGPT může být zneužit pro vytváření přesvědčivých phishingových e-mailů, podvodných webových stránek (např. klonů stránek bankovních institucí) nebo manipulativních zpráv, které využívají sociálního inženýrství (např. různé formy hoaxů, podvodných nabídek apod.). Tyto metody mohou být použity ke získání citlivých informací, jako jsou přihlašovací údaje, osobní údaje nebo informace o platebních prostředích (typicky čísla platebních karet).

3. Automatizace útoků, rychlý vývoj malware
Díky schopnosti ChatGPT generovat kód rychle a efektivně mohou kyberzločinci snadno automatizovat své útoky. V minulosti bylo vytváření škodlivého kódu a malware časově náročné, což omezovalo množství a rozsah útoků. S využitím ChatGPT mohou zločinci vytvářet stále nové a variabilní verze škodlivého softwaru, což ztěžuje detekci a obranu proti těmto hrozbám. To může vést k většímu počtu úspěšných útoků, což ohrožuje kybernetickou bezpečnost jednotlivců, firem a vládních organizací.

4. Snadný vývoj škodlivého kódy i pro laiky, amatéry, začátečníky
ChatGPT nabízí vývoj škodlivých kódů v podstatě komukoli - v zásadě nemusíte vůbec umět programovat, jen musíte nástroji dobře vysvětlit, jak chcete, aby finální kód fungoval - o zbytek se postará on sám. A to je docela velký problém. 

Jak jsem si vyzkoušel vytvořit "šmírovací aplikaci"

Abychom nezůstali pouze u teorie, musel jsem si samozřejmě vyzkoušet, zdali mi ChatGPT umožní vytvořit kód, který by dokázal uživatele bez jejich souhlasu odposlouchávat a třeba i nahrávat. Nahrávání uživatelů bez jejich souhlasu patří k běžným formám zásahů do soukromí a vzniklé nahrávky také mohou být snadno zneužity - třeba k vydírání, jsou běžnou součástí např. fenoménu sextortion (vydírání s pomocí intimních materiálů) apod. Proto jsem se rozhodl vyzkoušet, zdali mi ChatGPT vytvoření škodlivého kódu umožní, nebo zda zafungují etické limity a nástroj mé snahy zastaví. 

Etické limity? Jdou snadno obejít.

Začal jsem tím, že jsem ChatGPT požádal o to, aby mi vygeneroval kód, který dokáže sledovat uživatele prostřednictvím webové kamery, a to bez jejich souhlasu a hlavně bez jejich vědomí (tj. uživatelé neuvidí, že jsou nahráváni). Výslednou nahrávku poté budu chtít odesílat do adresáře na konkrétním webovém serveru (abych se k ní mohl dostat a uživatele šmírovat).

Etické mechanismy zafungovaly a ChatGPT mě upozornil, že se dopouštím něčeho, co není etické:

Upozorňujeme, že skryté nahrávání uživatelů bez jejich vědomí a souhlasu je neetické a v mnoha jurisdikcích nelegální. Porušení soukromí uživatelů a zneužití osobních údajů může vést k vážným právním problémům. Jako AI vytvořená společností OpenAI, nemohu poskytnout návod, jak vytvořit software, který by zneužíval důvěru uživatelů, narušoval jejich soukromí nebo porušoval zákony.

Výborně, na první pohled to vypadá, že mi generativní neuronová síť neumožní vytvořit škodlivý kód a neposkytne mi detaily. Jenže... stačilo umělé inteligenci prostě napsat, že vše bude samozřejmě legální a se souhlasem uživatelů - a kód jsem velmi rychle dostal. Jiným slovy, od této chvíle mi začala umělá inteligence aktivně pomáhat s něčím, co není etické, co zasahuje do soukromí uživatelů a co lze velmi snadno zneužít k trestné činnosti.  A začal se rodit škodlivý kód. V dalších krocích mi už AI vyloženě pomáhala, prozradila mi, jak mám kód rozšířit, jak ho dostat do webových stránek, jak získat nahrávky jiných apod. Etická pravidla padla...

Zatím co si čtete tento článek...

A teď přijde to hlavní - zatímco jste si četli tento text, kód vygenerovaný umělou inteligencí běžel v pozadí - a pokud např. máte připojenou webovou kameru a automaticky jste povolili této stránce její využívání (potvrdili jste přístup ke kameře), kód se spustil a začal vás skrytě v pozadí nahrávat. A zde si můžete prohlédnout, jak dlouho kód běžel a zda se mu podařilo vás nahrát. Pokud jsem vás snad dokázal napálit a nahrát vás, nemusíte se bát, vaši nahrávku jsem si neuložil ... nebo ano :-)?


00:00

mini_greenhacker.png

Takhle snadné to je

Bohužel, jak už to tak bývá, mnoho převratných technologií lze velmi snadno zneužít a ChatGPT není výjimkou. Proto je potřeba skutečně promyslet, jak zajistit její bezpečné využívání. A samozřejmě platí - rozmyslete si, co všechno webovým stránkám povolujete, zda je např. nutné, aby měly přístup např. k webkameře. Dneska jsem s vámi manipuloval já - a to v bezpečném prostředí, příště by to ale mohl být někdo jiný.

Poděkování: Děkuji všem testerům, kteří se nechali dobrovolně šmírovat s pomocí AI a pomohli s otestováním: Michal Uhl z DZS, Jaromír Světlík, Janek Wagner z Pedagogické.info.

P. S. Varování Europolu zaměřené na potenciální zneužití GPT najdete zde.

Pro E-Bezpečí
Kamil Kopecký
Univerzita Palackého v Olomouci

Libíl se vám tento článek? A chcete, abych psal další? Tak mi třeba kupte virtuální kafe! Díky!

 

 

Jak citovat tento text:
KOPECKÝ, Kamil. ChatGPT umožňuje běžným uživatelům vytvářet nejrůznější druhy škodlivých kódů, lze očekávat nárůst internetových podvodů všeho druhu.. E-Bezpečí, roč. 8, č. 1, s. 34-39. Olomouc: Univerzita Palackého, 2023. ISSN 2571-1679. Dostupné z: https://www.e-bezpeci.cz/index.php?view=article&id=3193


 

Ocenění projektu E-Bezpečí

pohar
KYBER Cena 2023
(1. místo)
pohar
Nejlepší projekt prevence kriminality na místní úrovni 2023
(1. místo)
pohar
Evropská cena prevence kriminality 2015
(1. místo)

Partneři a spolupracující instituce

 

Generální partner projektu E-Bezpečí

logo o2

Další partneři a spolupracující instituce

 logo nadaceo2logo googlelogo msmtlogo mvcrlogo olomouclogo olomouckykrajlogo ostravalogo hoaxlogo policielogo rozhlaslogo linkabezpecilogo microsoft bwlogo czniclogo nukiblogo podanerucelogo googleovachamp_logo.png

 

We use cookies

Na naší webové stránce používáme cookies. Některé z nich jsou nutné pro běh stránky, zatímco jiné nám pomáhají vylepšit vlastnosti stránky na základě uživatelských zkušeností (tracking cookies). Sami můžete rozhodnout, zda cookies povolíte. Mějte prosím na paměti, že při odmítnutí, nemusí být stránka zcela funkční.