Hlavní navigace

Bezpečnost dětí především. Přední světové společnosti v oblasti AI se zavázaly k ochraně mládeže v online prostředí

Sdílet

 Autor: Cnews (s využitím DALL-E)
Společnosti jako OpenAI, Microsoft, Google, Amazon, Meta a další se zavázaly k tomu, že jejich nástroje nebudou pomocí umělé inteligence generovat a šířit obsah zobrazující sexuální zneužívání dětí.

Přední společnosti v oblasti umělé inteligence včetně OpenAI, Microsoftu, Googlu a Mety, se spojily s organizacemi Thorn a All Tech Is Human, aby předešly použití AI k vykořisťování na dětech. Tyto a další společnosti se zavázaly bránit vytváření a šíření obsahu, který mohl obsahovat vykořisťování a sexuální zneužívání dětí (CSAM).

Iniciativa zdůrazňuje význam spolupráce v AI průmyslu a ochranu dětí v online prostředí. Podle organizace Thorn bylo jen v USA v minulém roce nahlášeno přes 104 milionů podezřelých ze zneužívání, což jen ukazuje velikost problému a potřebu společného úsilí těmto incidentům předcházet.

Společnosti stojící za iniciativou pro ochranu dětí na internetu

Autor: Thorn

Společnosti stojící za touto iniciativou si stanovily za cíl společnými silami zabránit vytváření sexuálně explicitního materiálu zahrnujícího děti a odstranit jej z vyhledávačů a sociálních sítí. Pokud by velké „AI společnosti“ s tímto problémem nic nedělaly, mohla by brzy umělá inteligence časem předčit orgány činné v trestném řízení a celý problém s vytvářením sexuálně škodlivého obsahu jen zhoršit.

Thorn a All Tech Is Human před nedávnem publikovaly dokument nesoucí název Safety by Design for Generative AI: Preventing Child Sexual Abuse obsahující strategie a opatření pro firmy k předejití zneužívání AI na dětech. V dokumentu se objevují také možné datové sady neobsahující nevhodný obsah.

WT100

Thorn podle magazínu Engadget žádá provozovatele velkých sociálních sítí a vyhledávačů, aby odstranily odkazy na webové stránky a aplikace, které umožňují zobrazení explicitních obrázků dětí. Zároveň také klade důraz na separaci dětských a dospělých obrázků v tréninkových datech pro AI, aby se předešlo jejich možné kombinaci a vytváření potenciálně nechtěného obsahu.

Konec zneužívání refundu. Hraní her na Steamu v předběžném přístupu se bude počítat do limitu dvou hodin Přečtěte si také:

Konec zneužívání refundu. Hraní her na Steamu v předběžném přístupu se bude počítat do limitu dvou hodin

Některé společnosti už s tímto oddělením obrázků, videí a zvuku souhlasily, další společnosti přidávají vodoznaky k identifikaci obsahu generovaného AI. Ty se ale z pohledu bezpečnosti nezdají být extra spolehlivé, jelikož vodoznaky a metadata lze v dnešní době poměrně snadno odstranit.