Přímým důsledkem toho je, že značná část debat kolem této služby se soustředí na nadměrnou spotřebu ChatGPT a kroky OpenAI k jejímu snížení. Ztráta soukromí však vzala za své v důsledku řady úniků, které ve zkratce vedly k tomu, že se osobní chaty mnoha uživatelů objevily ve výsledcích vyhledávání Google.
Mnoho soukromých konverzací s ChatGPT se na Googlu objevilo veřejně. Problém, který objevila společnost Fast Company, odhalil přítomnost tisíců konverzací na Googlu s tím, že některé z nich obsahovaly citlivé osobní údaje. Ačkoli tedy konverzace nezobrazovaly jména, obsahovaly konkrétní popisy osobních vztahů, což je aspekt, který by mohl umožnit identifikaci uživatelů. Všechny otázky tedy směřovaly stejným směrem: Jak se to mohlo stát?
Na vině je nová funkce OpenAI
Jak uvádí původní zpráva, uniklé chaty pocházely od uživatelů, kteří aktivovali možnost sdílení, při níž zaškrtli políčko označující, že chaty mohou být veřejné. Překvapivě byla tato možnost opatřena vysvětlujícím textem, který byl stejně malý jako špatně viditelný, a proto mnozí tuto možnost přijali, aniž by si uvědomili plný rozsah problému. Přímým důsledkem toho bylo, že společnost OpenAI začala svou obhajobu na základě jasnosti oznámení, ale později ustoupila, když uznala, že funkce byla zavádějící.

Zdroj: Youtube.com
V návaznosti na to se firma rozhodla funkci odstranit, ale někteří uživatelé jí již byli postiženi. Některé sdílené konverzace prý obsahovaly informace zaměřené na duševní zdraví, drogy, sexuální život a traumata, což byla řada situací, které u uživatelů i společnosti vyvolaly poplach. V důsledku toho společnost OpenAI slíbila, že obsah indexovaný společností Google a dalšími vyhledávači odstraní, což mohla potvrdit pomocí nástrojů, které poskytla sama společnost Google.
Ta si v důsledku všech vyvolaných kontroverzí chtěla pojistit svou pozici tím, že objasnila, že za únik explicitního obsahu je odpovědná společnost OpenAI. Bohužel pro společnost Sama Altmana mnozí odborníci poukazují na to, že se jedná o nezodpovědný postup, který „zachází s uživateli jako s pokusnými králíky“, k čemuž je třeba připočíst aspekt nedůvěry všech postižených v další používání ChatGPT. Společnost OpenAI uvedla, že musí znovu získat důvěru veřejnosti, a zdůraznila, že klade důraz na bezpečnost i soukromí, ale narazila na další překážku: problémy s personalizovaným přesvědčováním umělé inteligence.
Sam Altman se obává dopadu umělé inteligence
Před několika měsíci vyjádřil šéf společnosti OpenAI obavy z přesvědčivějšího modelu, než se očekávalo, sám OpenAI, ale situace zašla ještě dál. Altmanovy obavy souvisejí s individualizovaným interaktivním přesvědčováním, což je hrozba, která se zaměřuje na schopnost AI manipulovat s přesvědčením a chováním tím, že se v reálném čase přizpůsobuje každému člověku pomocí jeho údajů.
Podle Altmana by jedním z nejnebezpečnějších scénářů bylo, kdyby AI objevila nové manipulační techniky, které by byly účinnější než ty lidské, což je aspekt, který by ji vedl ke zkoumání psychologických slabin. Na rozdíl od masové propagandy by se tedy jednalo o automatizovanou chirurgickou manipulační techniku, neboť by byla cíleně personalizovaná. Pokud by tedy zasáhla oblasti, jako je politika, mohla by podle Altmana zničit demokratickou diskusi, protože každý člověk by žil v manipulované informační bublině.
OpenAI zatím podnikla kroky tím, že zakázala používání umělé inteligence v politických kampaních, ale zdá se, že to nestačí. Zároveň začala spolupracovat s oficiálními organizacemi (viz např. americká NASS) s cílem sjednotit úsilí v boji proti dezinformacím a zároveň integrovat standard C2PA (technologie, která ověřuje pravost digitálního obsahu prostřednictvím šifrovaných metadat). Za tímto účelem má podporu velkých společností, jako jsou Microsoft, Adobe, Intel a Sony, aby umožnila všem zúčastněným stranám ověřovat původ obrázků a videí.
Otázka bezpečnosti užívání AI
Altmanův postoj překvapivě odhaluje jedno z hlavních nebezpečí umělé inteligence, což je rozporuplná situace vzhledem k tomu, že by měl mít zájem vychvalovat hodnotu umělé inteligence. V důsledku toho se sám Altman domnívá, že největší překážkou není technická, ale společenská a vzdělávací oblast, protože AI se vyvíjí rychleji než regulace a vzdělávání veřejnosti. Proto zdůraznil, že jeho největší obavou není to, že umělá inteligence je příliš chytrá, ale to, že se lidstvo nedokáže přizpůsobit svým vlastním výtvorům.
Kromě toho je důležité zmínit, že OpenAI pracuje na vývoji politik a bezpečnostních opatření, která by tato rizika zmírnila. Společnost zřídila etickou komisi a spolupracuje s odborníky na etiku a technologie, aby zajistila, že vývoj umělé inteligence bude probíhat zodpovědně. Společnost OpenAI rovněž zavedla systémy auditu a kontroly, které mají posoudit dopad jejích technologií na společnost.

Zdroj: Youtube.com
Umělá inteligence sice nabízí obrovský potenciál pro zlepšení našich životů, ale zároveň přináší značné problémy, které je třeba řešit s rozvahou. Transparentnost, etika a mezinárodní spolupráce jsou nezbytné k zajištění toho, aby se umělá inteligence vyvíjela bezpečným a pro všechny přínosným způsobem.