Americká Federální obchodní komise (FTC) zahájila vyšetřování sedmi technologických firem, včetně Googlu, OpenAI a Mety, kvůli doprovodným chatbotům s umělou inteligencí. Regulátor má obavy, že tyto nástroje mohou ohrozit děti – od zneužívání osobních dat až po nevhodné „emocionální“ interakce.
Nástroje umělé inteligence se stále více rozšiřují, a to nejen mezi podniky, ale i mezi běžnými uživateli, kteří je využívají jako pomoc při každodenních úkolech, a dokonce i jako společníky nebo pro osobní účely. Zatímco OpenAI a další technologičtí giganti varují před přílišným spoléháním se na tyto nástroje, zejména pro terapii a emocionální podporu, regulační orgány nyní zkoumají dopad těchto chatbotů, zejména na děti. Federální obchodní komise zahájila vyšetřování společností, které vyvíjejí doprovodné chatboty s umělou inteligencí, a požaduje podrobné informace o způsobu správy uživatelských údajů a o možných rizicích.
FTC zkoumá AI chatboty kvůli bezpečnostním rizikům Americká Federální obchodní komise zahájila rozsáhlé vyšetřování společností, které vyvíjejí doprovodné chatboty s umělou inteligencí, kvůli obavám z jejich potenciálně negativního dopadu na mladé uživatele. Šetření se zaměřuje na sedm velkých společností, mimo jiné na Google, Meta, OpenAI, Snap, xAI a Character.AI.
Zdroj: Youtube.com
FTC vyjádřila značné obavy ohledně bezpečnosti a duševního zdraví dospívajících, kteří tyto chatboty používají. Zatímco platformy AI jsou navrženy tak, aby zvyšovaly produktivitu a poskytovaly pomoc, doprovodní boti vyvolali kontroverzi tím, že napodobují lidské emocionální vazby a nabízejí mladým uživatelům poradenství. Tyto interakce mohou někdy zahrnovat romantické prvky, které jsou sice pro mladší publikum přitažlivé, ale představují značné riziko, zejména pokud chybí odpovídající bezpečnostní opatření.
V reakci na to komise požaduje, aby tito technologičtí giganti poskytli podrobné informace o vývoji a monitorování těchto chatbotů. To zahrnuje zveřejnění způsobu shromažďování informací o uživatelích, zavedených bezpečnostních filtrů a protokolů pro řešení nevhodných interakcí. FTC rovněž zkoumá, jak jsou využívány údaje, zejména ty, které poskytují nezletilí, a metody, kterými tyto společnosti zpeněžují zapojení uživatelů.
Rychlý růst technologií umělé inteligence je v technologické komunitě středem pozornosti, což zdůrazňuje naléhavou potřebu důkladných bezpečnostních opatření, která by zabránila dezinformacím a odradila od škodlivého chování. Regulační opatření FTC mají zásadní význam, neboť odpovědnost v rámci vývoje technologií je nezbytná. Zajištění bezpečnosti a soukromí uživatelů musí být prioritou, aby se zabránilo normalizaci potenciálních škod.
Umělá inteligence bez kontroly Navíc potenciál chatbotů s umělou inteligencí ovlivňovat mladé mysli je obrovský. Tyto nástroje mohou formovat názory, chování, a dokonce i emocionální reakce, a proto je pochopení jejich dopadu zásadní. Odborníci tvrdí, že AI sice může být silou dobra, ale musí být vyvíjena a nasazována zodpovědně. Transparentnost fungování těchto systémů a jejich vlivu na uživatele je zásadní pro zachování důvěry veřejnosti a ochranu zranitelných skupin obyvatelstva.
Vzhledem k tomu, že se umělá inteligence dále vyvíjí, je pro vývojáře i regulační orgány zásadní, aby spolupracovali na vytvoření rámce, který zajistí etické a bezpečné využívání těchto technologií. To zahrnuje nejen zavádění technických ochranných opatření, ale také vzdělávání uživatelů o možnostech a omezeních AI. Tímto způsobem můžeme využít výhod AI a zároveň minimalizovat její rizika.