Meta zpřísňuje boj proti AI aplikacím pro nelegální deepfake („nudify“) reklamy

Meta zpřísňuje detekci a blokuje AI nudify reklamy, aby chránila uživatele před deepfake hrozbami.

Meta podniká razantní kroky proti reklamám propagujícím AI nástroje na generování neautorizovaných nahých podob osob. Meta odstranila stovky takových reklam na platformách jako Facebook, Instagram, Messenger či Threads, a zároveň zablokovala související URL adresy a stránky. Tyto „nudify“ aplikace využívají umělou inteligenci k vytváření explicitního obsahu založeného na fotografiích či videích reálných lidí bez jejich souhlasu, což představuje závažné bezpečnostní a etické riziko.

Tyto nástroje fungují tak, že uživatel nahraje svůj snímek (nebo snímek jiné osoby) a AI model poté „odstraní“ oblečení či upraví image tak, aby vypadal nahý. To může vést k šíření neautorizovaných deepfake obrázků, jejichž vznik podporuje fenomén sextortion (vydírání intimními materiály) a porušuje právo na soukromí a osobnostní práva. Skupiny zkoumající problém varují, že tyto technologie mohou být zneužity k šikaně, pomluvě či vydírání a mohou cílit i na neplnoleté osoby či veřejné osobnosti bez jejich vědomí či souhlasu.

Meta kromě odstranění reklam a zablokování podezřelých webů také vyvíjí a zavádí pokročilejší detekční nástroje využívající strojové učení pro identifikaci a blokaci reklam propagujících nevhodný obsah. Společnost dokonce podala žalobu na provozovatele některých těchto aplikací – například proti společnosti Joy Timeline HK Limited, která podle obvinění obcházela Meta reklamní kontrolu, aby mohla i nadále šířit své aplikace nabízející generování explicitních deepfake obrázků. Meta tak reaguje na rostoucí tlak regulačních orgánů či politiků, kteří vyzývají k efektivnějším ochranám uživatelů před zneužitím AI technologií.

Provozovatelé těchto aplikací se neustále snaží vyvíjet nové taktiky, aby obešli detekci a moderaci, což klade důraz na potřebu kontinuálního vylepšování algoritmů a pravidel. Meta zároveň spolupracuje s dalšími subjekty v oboru, aby sdílela zjištěné metody zneužití a včas reagovala na nové varianty hrozeb. Přesto se moderování tohoto obsahu jeví jako náročné, protože se rychle mění způsoby, jakými útočníci vytvářejí a propagují takové nástroje.

Na legislativní úrovni začínají některé země přijímat či navrhovat zákony, které řeší problematiku deepfake obsahu a nelegální šíření intimních snímků bez souhlasu. Například v USA vstoupil v platnost „Take It Down Act“, který ukládá sociálním sítím odstranit deepfake materiály do 48 hodin od oznámení oběti, avšak nezabývá se přímo nástroji, jež takový obsah vytvářejí. Tyto právní kroky i tlak veřejnosti motivují platformy jako Meta k posílení vlastních zásad a technologií na ochranu uživatelů.

Pro jednotlivé uživatele je klíčové být obezřetný při sdílení svých fotografií online a zvažovat, jaké aplikace či služby povolí přistupovat k jejich datům. V případě podezření na vznik deepfake obrázků či zkreslených záznamů svých osob je vhodné okamžitě kontaktovat provozovatele platformy a zvážit právní kroky. Vzdělávání o rizicích AI deepfake technologií, posilování digitální gramotnosti a podpora transparentních procesů vývoje AI jsou nezbytné pro prevenci zneužití.

Meta svými kroky ukazuje, že i velké technologické firmy nesou odpovědnost za ochranu uživatelů před škodlivými aplikacemi a musí neustále inovovat detekční mechanismy a zásady moderace. Boj proti neautorizovaným AI nudify aplikacím je součástí širšího úsilí o etický rozvoj a regulaci umělé inteligence, které respektuje práva jednotlivců a chrání je před zneužitím technologií.