Přední společnosti v oblasti umělé inteligence včetně OpenAI, Microsoftu, Googlu a Mety, se spojily s organizacemi Thorn a All Tech Is Human, aby předešly použití AI k vykořisťování na dětech. Tyto a další společnosti se zavázaly bránit vytváření a šíření obsahu, který mohl obsahovat vykořisťování a sexuální zneužívání dětí (CSAM).
Iniciativa zdůrazňuje význam spolupráce v AI průmyslu a ochranu dětí v online prostředí. Podle organizace Thorn bylo jen v USA v minulém roce nahlášeno přes 104 milionů podezřelých ze zneužívání, což jen ukazuje velikost problému a potřebu společného úsilí těmto incidentům předcházet.
Společnosti stojící za touto iniciativou si stanovily za cíl společnými silami zabránit vytváření sexuálně explicitního materiálu zahrnujícího děti a odstranit jej z vyhledávačů a sociálních sítí. Pokud by velké „AI společnosti“ s tímto problémem nic nedělaly, mohla by brzy umělá inteligence časem předčit orgány činné v trestném řízení a celý problém s vytvářením sexuálně škodlivého obsahu jen zhoršit.
Thorn a All Tech Is Human před nedávnem publikovaly dokument nesoucí název Safety by Design for Generative AI: Preventing Child Sexual Abuse obsahující strategie a opatření pro firmy k předejití zneužívání AI na dětech. V dokumentu se objevují také možné datové sady neobsahující nevhodný obsah.
Thorn podle magazínu Engadget žádá provozovatele velkých sociálních sítí a vyhledávačů, aby odstranily odkazy na webové stránky a aplikace, které umožňují zobrazení explicitních obrázků dětí. Zároveň také klade důraz na separaci dětských a dospělých obrázků v tréninkových datech pro AI, aby se předešlo jejich možné kombinaci a vytváření potenciálně nechtěného obsahu.
Některé společnosti už s tímto oddělením obrázků, videí a zvuku souhlasily, další společnosti přidávají vodoznaky k identifikaci obsahu generovaného AI. Ty se ale z pohledu bezpečnosti nezdají být extra spolehlivé, jelikož vodoznaky a metadata lze v dnešní době poměrně snadno odstranit.