Jeden z případů nového fenoménu se odehrává na platformě TikTok, kde účet vystupující pod pseudonymem Kaylee Keery pomocí AI generovaných fotografií a videí vytváří iluzi partnerského života s americkým hercem Joem Keerym, známým především rolí Stevea Harringtona v seriálu Stranger Things. Přestože je část obsahu označena hashtagem #ai, prezentace působí realisticky a pro část publika nemusí být na první pohled zřejmé, že sleduje fikci.
Právo versus algoritmy
Právě zde se otevírá zásadní otázka. Kde v současnosti leží hranice mezi nevinnou AI zábavou a neoprávněným zásahem do osobnostních práv skutečné osoby. Podle Jiřího Matznera, zakladatele advokátní kanceláře Matzner & Vítek, nejde o problém, který by měl jednoduché nebo univerzální řešení. Zároveň ale upozorňuje, že stanovit jednoznačnou hranici není možné. „Bude třeba vždy vyhodnotit individuální případ. Klíčovou roli hraje zejména to, zda je použita podobizna konkrétní osoby bez jejího souhlasu, jaký je účel vzniku obsahu a jak hluboko zasahuje do soukromé či rodinné sféry. V každém případě zásah do osobnostních práv vždy představuje porušení práva, využití AI bude jen další okolností pro posouzení věci, nikoli možností, jak se z daného jednání vyvinit,“ vysvětluje pro Metro Matzner.
Na konkrétní paragrafy občanského zákoníku odkazuje i Dagmar Hartmanová, právnička mediální skupiny Mafra. „Podle ustanovení paragrafu 84 a 85 platí, že zachytit jakýmkoli způsobem podobu člověka tak, aby podle zobrazení bylo možné určit jeho totožnost, je možné jen s jeho svolením. A totéž platí pro její rozšiřování,“ vysvětluje.
Důležité je podle ní zdůraznit, že tato ochrana se vztahuje i na podobu vytvořenou umělou inteligencí. „Pořád se jedná o podobu člověka. To, že ji nevytvořil fotoaparát, ale algoritmus, na tom nic nemění. Uvěřitelnost bude mít dopad na případnou výši nemajetkové újmy. Na samotnou protiprávnost ne,“ dodává Hartmanová.
Narušování hranice
Vedle právního rozměru má však fenomén falešných AI vztahů i výrazný psychologický dopad, a to jak na samotné tvůrce, tak na jejich publikum. Podle psycholožky Paulíny Árendášové z on-line poradny Mojra.cz je fantazírování samo o sobě přirozenou součástí lidské psychiky. „Fantazírování je normální, pokud si člověk uvědomuje hranici mezi představou a skutečností,“ říká pro deník Metro.
Problém nastává ve chvíli, kdy se tato hranice začne systematicky rozpadat. „Jde o rizikové chování, pokud někdo dlouhodobě a konzistentně prezentuje falešný intimní vztah s reálnou osobou jako realitu a přizpůsobuje tomu své každodenní fungování,“ vysvětluje psycholožka.
Takové chování může podle ní signalizovat hlubší potíže, například potřebu kompenzovat osamělost, regulovat úzkost nebo získat pocit kontroly. Zároveň ale nevyhnutelně narušuje hranice osoby, která je objektem falešného vztahu.
Dopady se přitom netýkají jen autorky obsahu, ale také sledujících, často mladých nebo psychicky zranitelných. „Vztahy vytvořené AI mohou vést k nerealistickým očekáváním od skutečných vztahů. Například k představě, že partner je vždy dostupný, nemá vlastní hranice a funguje jako produkt na míru. Také falešná intimita prostřednictvím AI může působit bezpečněji než vztahy s lidmi, které jsou přirozeně složité a konfliktní. To ale dlouhodobě oslabuje vztahové dovednosti a zkresluje představu o tom, co skutečná intimita znamená,“ dodává pro Metro Árendášová.
Co na to Evropská unie?
Technologický kontext pak ukazuje, že nejde o okrajový jev, ale o trend, který bude sílit. Podle Lukáše Benzla z Asociace umělé inteligence není zásadní rozdíl v samotné technologii, ale v jejím využití. „Zatímco deepfake video je často jednorázový klam, vztah generovaný AI funguje jako dlouhodobý narativ. Má historii, emoce, vývoj, každodenní drobnosti. Nejde už jen o manipulaci obrazem, ale o manipulaci sociální reality,“ vysvětluje pro Metro a dodává, že v současnosti je vytvoření přesvědčivé falešné identity otázkou hodin. „AI už negeneruje jen hezké fotky, ale konzistentní styl, emoce a reakce. A tento trend se bude dál zrychlovat,“ říká Benzl. Otázka odpovědnosti se tak nevyhnutelně vrací i k samotným platformám. Právní rámec Evropské unie však jejich povinnost zasahovat váže až na moment, kdy jsou na protiprávní obsah upozorněny. Do té doby odpovědnost nese především autor. Podle Benzla ale nejde jen o právo, ale i o motivace. „Primárně neselhávají technologické nástroje, ale pravidla a incentiva platforem. Emoce, i když jsou postavené na klamu, jsou pro algoritmy hodnotné,“ uzavírá Benzl. Bez jasné společenské shody o tom, kde leží hranice přijatelné simulace reality, tak zůstává regulace vždy o krok pozadu.
Celebrity zasahují
|



















