Květnové spuštění aplikace Veo 3 od společnosti Google znamenalo milník v oblasti generování videí umělou inteligencí. Tento nástroj, který umožňuje vytvářet videoklipy, jež lze snadno zaměnit za skutečné záběry, otevřel nekonečné tvůrčí možnosti. Jako u mnoha pokročilých technologií však odhalil i svou temnou stránku. Nedávná zpráva upozorňuje na to, jak je tento nástroj využíván k vytváření a šíření rasistických videí na platformě TikTok, což pro tuto platformu představuje vážný problém v oblasti moderování.
Podle zprávy MediaMatters se objevuje alarmující trend: řada účtů na TikToku zveřejňuje krátká videa vytvořená pomocí nástroje Veo 3, která čerpají z témat rasismu a nenávisti. Tato videa nejenže generují značné interakce, ale také oslovují masivní publikum.
Většina těchto videí, jejichž průměrná délka je osm sekund a jsou opatřena vodoznakem „Veo“, zobrazuje především černochy stereotypním a dehumanizujícím způsobem. Útočí také na přistěhovalce a židovskou komunitu, čímž ukazují, jak snadné je využít tuto umělou inteligenci ke zkreslování reality a šíření nenávisti.
Bezpečnostní překážky AI: Výzva, kterou je třeba překonat
Společnost Google opakovaně zdůraznila význam bezpečnosti a ochranných zábran ve svých modelech AI. V případě Veo 3 se však tyto ochranné prvky zdají být propustnější, než se očekávalo, a umožňují generování problematického obsahu. Částečně je to způsobeno tím, že umělá inteligence nebyla vycvičena k rozpoznávání všech běžně používaných rasistických stereotypů. Nedokáže například rozpoznat „jemnost“ používání opic jako reprezentace lidí. Navíc nejednoznačnost příkazů, které jí jsou zadávány, jí umožňuje vytvářet urážlivý obsah, aniž by se spustil systémový alarm.
Interní pravidla společností Google a TikTok přísně zakazují vytváření a šíření nenávistného obsahu. TikTok se k tomu staví jasně: „Nedovolujeme žádné nenávistné projevy, nenávistné chování ani propagaci nenávistných ideologií“. Účinné uplatňování těchto zásad ve velkém měřítku však zůstává značnou výzvou.
Google se také potýká s problémy se svým generátorem obrázků, kdy požadavky často vedou k urážlivým obrázkům. To zdůrazňuje potřebu zdokonalených filtrů a detekčních systémů, které by zabránily vytváření škodlivého obsahu.
Mluvčí společnosti TikTok sdělil serveru Ars Technica, že ačkoli používají kombinaci technologie a lidských moderátorů, objem videí nahraných na platformu přesahuje jejich kapacitu pro kontrolu. Přestože více než polovina účtů, které MediaMatters zkoumala, byla smazána ještě před zveřejněním zprávy, videa již nasbírala tisíce zhlédnutí a zanechala v publiku trvalý dojem.
Problém, který se šíří i na další sociální sítě
Tento jev není na TikToku ojedinělý. Podobné případy byly zaznamenány také na platformě X (dříve Twitter), která se vyznačuje laxnějším moderováním a kde se hoaxy rychle šíří. Vestavěná umělá inteligence, například Grok, zatím nedokáže rozlišit mezi skutečným videem a videem vytvořeným umělou inteligencí, což moderování ještě více ztěžuje.