Funkce umožňovala, aby se soukromé konverzace objevovaly ve webovém vyhledávání, aniž by uživatelé věděli o skutečném rozsahu sdílení chatu.
Společnost OpenAI musela ustoupit od funkce, kterou nikdo neočekával a kvůli které byly tisíce konverzací ChatGPT viditelné na Googlu a mohl je vyhledávat kdokoli. Situace vyšla najevo, když několik médií zjistilo, že se ve výsledcích vyhledávání ve vyhledávači objevuje mnoho soukromých chatů s chatbotem.
Problém odhalila zpráva společnosti Fast Company, která odhalila skutečný rozsah problému. Jak vysvětluje Engadget, tisíce konverzací skončily na indexu Googlu a ačkoli byly teoreticky anonymní, mnohé z nich obsahovaly informace, které mohly identifikovat osobu, která je napsala.
Nejednalo se o chybu, ale o špatně komunikovanou funkci
Vtipné je, že se nejednalo o hackerský útok ani o bezpečnostní chybu. Šlo o funkci, kterou OpenAI nedávno zavedla, aniž by si většina uživatelů uvědomovala její důsledky. Když někdo vytvořil odkaz pro sdílení konverzace, objevila se možnost „Učinit tento chat zjistitelným“ s vysvětlením psaným malým písmem, které varovalo, že se obsah může objevit ve webovém vyhledávání.
Dane Stuckey, šéf zabezpečení společnosti OpenAI, musel vystoupit a vysvětlit situaci v X. Uznal, že funkce vytvářela příliš mnoho příležitostí k chybám a že uživatelé nakonec sdíleli informace, aniž by chápali, že budou veřejné. Společnost se rozhodla funkci odstranit a slíbila, že bude pracovat na odstranění veškerého obsahu, který již byl indexován.
Skutečnost je taková, že mnoho uživatelů používalo tyto odkazy nevinně. Někteří ke sdílení zajímavých konverzací se známými, jiní jen jako rychlý způsob, jak si uložit vlastní konverzace a později si je prohlédnout. Nikdo si nepředstavoval, že to nakonec bude viditelné pro každého, kdo provede vyhledávání v Googlu.
Dopad a poučení
Tato epizoda není první, kdy se OpenAI zapletla do kontroverze. Nedávno se objevila kritika také kvůli jejímu generátoru obrázků a schopnosti napodobovat vizuální styly studií, jako je Ghibli, bez povolení. Nelze zapomenout ani na to, když společnost tvrdila, že není možné trénovat umělou inteligenci bez použití obsahu chráněného autorskými právy, což se nelíbilo tvůrcům a vydavatelům.
Dokonce i bývalí zaměstnanci, jako je Miles Brundage, veřejně kritizovali interní fungování OpenAI a obviňovali společnost z upřednostňování rychlého vydání před bezpečnostními hledisky. To vše za situace, kdy je spotřeba energie ChatGPT stále předmětem diskusí o jejích dopadech na životní prostředí.
Společnost OpenAI trvá na tom, že soukromí a bezpečnost zůstanou prioritou, ale podobné případy ukazují, že rychlost vývoje může způsobit nečekané problémy milionům uživatelů. Tentokrát společnost alespoň rychle zareagovala a problém napravila, jakmile se dostal na veřejnost.
Budoucnost soukromí v oblasti umělé inteligence
Ochrana soukromí v oblasti umělé inteligence je stále aktuálnějším tématem. S tím, jak se tyto technologie stále více integrují do našeho každodenního života, musí společnosti zajistit ochranu údajů uživatelů. To zahrnuje nejen zabezpečení údajů, ale také transparentnost jejich používání a sdílení.

Zdroj: Youtube.com
OpenAI a další technologické společnosti se musí poučit z těchto chyb a pracovat na zavedení osvědčených postupů v oblasti správy dat. To by mohlo zahrnovat přísnější audity ochrany soukromí, lepší komunikaci s uživateli o tom, jak bude s jejich údaji nakládáno, a vývoj technologií, které upřednostňují ochranu soukromí již od návrhu.
Důvěra uživatelů je nakonec pro úspěch každé technologie zásadní. Společnosti, které dokáží prokázat závazek k ochraně soukromí a bezpečnosti, budou mít lepší pozici pro získání důvěry spotřebitelů a vedoucí postavení ve vývoji odpovědných technologií umělé inteligence.