Praha - Generativní umělá inteligence (AI), zejména takzvané deepfakes, přináší zcela nové výzvy pro kyberbezpečnost a společnost jako celek, shodují se experti, které oslovila ČTK. Deepfake označuje technologii, která umožňuje vytvářet falešný digitální obsah a realisticky například nahrazovat tváře nebo hlasy v existujících fotografiích nebo videích. Odborníci míní, že rizikem už není sama existence falešného obsahu, ale jeho masová dostupnost.
"Za největší problém považuju to obrovské množství obsahu, které lze jednoduše generovat," řekl Josef Šlerka z Ústavu informačních studií a knihovnictví Filozofické fakulty Univerzity Karlovy. Podle něj kvalita audiovizuálního obsahu produkovaného AI dosáhla takové úrovně, že divák často nerozezná, že jde o podvrh.
Nástroje, které umožňují generovat klamavý obsah, jsou mnohdy i poměrně levné, dostupné a může je využít prakticky kdokoliv, uvedla Barbara Zitová z Ústavu informace a automatizace Akademie věd ČR. "Je to velmi uvěřitelné a není těžké tím ošálit," řekla.
Oba odborníci upozornili, že generativní nástroje mohou nejen vytvářet falešné fotografie, zvuk i video, ale také aktivně komunikovat jménem konkrétní osoby. "Deepfake videohovor, kde s vámi mluví někdo, kdo ve skutečnosti neexistuje, ale působí velmi autenticky, to bylo ještě před pár lety těžko představitelné," uvedl Šlerka. Zitová poukázala na to, že banky nyní například přestávají využívat ověřování pomocí hlasu, protože AI může napodobit hlas.
Schopnost běžného uživatele rozeznat falešný obsah podle odborníků rychle klesá. "V tuto chvíli to ještě jakž takž jde a zkušené oko to často pozná," řekl Šlerka. Dá se podle něj ale předpokládat, že během několika let bude kvalita generovaného obsahu natolik vysoká, že s tím budou mít potíže i zkušení.
Jedním z rizik je využívání deepfakes k podvodům, také případy se nyní vyskytují. Dalším bezpečnostním rizikem je využití generativní AI pro ovlivňování a manipulaci veřejného mínění. "Typický příklad je vygenerované video kolující platformou TikTok, kde 'davy Izraelců v rozbombardovaném Tel Avivu prosí Írán o odpuštění'. To bylo evidentně součástí íránské operace, která měla zasáhnout morálku Izraelců," popsal Šlerka.
Dalším podobným příkladem zneužití AI je podle Šlerky falešné video, které tvrdilo, že si manželka ukrajinského prezidenta Volodymyra Zelenského koupila nové bugatti ve Francii. Ve videu vystupuje zaměstnanec autosalonu, který to potvrzuje. "Video bylo natočené na výšku, působilo autenticky. Protože šlo o neznámou osobu, špatně se ověřovalo. Nakonec se ukázalo, že to celé bylo vygenerované a člověk ve videu nebyl skutečný," dodal. Podobně kvalitně připravený deepfake podle něj zaměstná celý tým ověřovatelů, a přitom stihne napáchat škodu.
Zitová si myslí, že i kdyby byly generativní nástroje omezené, tak útočníci či pachatelé by stejně přístup k ním získali. "Řádový uživatel by si mohl pomoct tím, že bude sledovat zdroje, které považuje za věrohodné, a ty budou ověřovat, zda je něco pravda," řekla.
Podle ředitele České asociace AI Lukáše Benzla už společnost není ve fázi, kdy dokáže rozpoznat, co je a co není generované AI. "Největším rizikem nejsou pokročilé AI technologie, ale jejich dostupnost. Uvěřitelný deepfake dokáže vytvořit kdokoliv. Pro každého z nás je nyní důležité zapojit kritické myšlení, být ve střehu a zvyšovat si informační gramotnost," řekl.
Bez multimodálních systémů, které v reálném čase křížově ověřují hlas, obraz a chování, lidé podle spolumajitele technologického projektu Lexicon Labs Daniila Shakhovského ztrácí schopnost rozeznat skutečné od zmanipulovaného. "Pokud podnikatele včas nevybavíme těmito nástroji, manipulátoři převezmou kontrolu nad důvěrou ve jména, značky i lidi. Jiná cesta je jasná: každý generativní obsah už teď musí nést digitální podpis a viditelný štítek - jinak ztratíme kotvu v realitě," uzavřel.









