Skandální zjištění v AI! Vědci objevili podezřelé materiály

Originál článek publikovaný na: Skandální zjištění v AI! Vědci objevili podezřelé materiály

Stanfordští vědci objevili podezřelé obrázky v databázi Laion-5B Na této databázi je postaven např. Stable Diffusion nebo Imagen Databáze obsahovala více než 3226 obrázků znázorňujících sexuální zneužívání dětí Ohledně tréninkových dat a způsobu, jak se vlastně modely umělé inteligence učí, stále víme velmi málo, regulace teprve přicházejí a první právní spory nastaly pár měsíců zpátky.…

To je snad správně, ne? AI musí umět tyto případy poznat, takže si je musí natrénovat. Pokud AI nebude znát negativní jevy, k čemu bude?

Proboha, myslete mozkem a ne jeho aktivistickou napodobeninou!

Ta regulace je nutná. A pak další regulace a neustálé kontroly. Umím si představit, že na různé ilegální činnosti se umělé inteligence bude ptát klidně každý druhý uživatel.

1 Like

Ta druhá část komentáře už nezněla moc empaticky a dokážu si tvou reakci představit i bez ní :wink:. Prosím nezapomínat na ty tři základní pravidla Spouštíme komunitu Svět Androida. Přijďte si pokecat i vy!

Obecně s tebou ale souhlasím. Pokud je naším cílem vytvořit opravdu všestrannou AI, je potřeba aby znala kontext věcí a to i těch negativních. Pak už je ale dobré, aby na výstupu byl aplikovaný filtr pro nezletilé, nebo něco podobného. Obdobně jako to má ChatGPT a jiné eticky provozované modely.

U Stable Diffusion je to ale trochu jiný případ, jelikož je to zatím čistě obrázková AI a tam je otázkou k čemu by jí, nebo nám mohlo být prospěšné trénovat jí na datech dětské pornografie. Obecně se ale říká, že polovina AI je v přípravě dat, takže je dost možné, že https://laion.ai/, která trénovací data připravovala, je v tom obrovském vzorku 5,85 miliardy obrázku prostě jen zapomněla.

Na Reditu jsem našel vlákno, kde tvrdí, že ony problematické obrázky CSAM jsou obsaženy pouze z 0,001 %.

No, mohlo by to pro ní být dobré právě proto, aby si někdo s její pomocí nezkusil podobná témata generovat. I když na druhou stranu, je trestné prohlížet si obrázky neexistujících dětí, jak si to rozdávají s neexistujícími úchyláky? Je tu nějaký odborník na danou problematiku?

1 Like