Originál článek publikovaný na: Minority Report v Británii? AI má tajně hledat budoucí vrahy!
Reklama Britská vláda tajně údajně vyvíjí systém umělé inteligence (AI) pro identifikaci osob s vysokou pravděpodobností spáchání vraždy Systém by měl analyzovat velké množství osobních údajů z vládních a policejních databází Projekt vyvolává značné obavy ohledně ochrany soukromí, etiky a možného zneužití Britská vláda, konkrétně ministerstvo spravedlnosti a vnitra, pracuje na vývoji nástroje založeného na…
Vtipné. Anglie už teď není svobodná země. 33idi denně v průměru skončí ve vězení za to, že napíše nějakou blbost na Facebook. Zákony na to jsou napsány tak vágně, že v podstatě cokoli negativního vůči někomu, nebo kritika vlády může znamenat basu:-)
K tomu samozřejmě zrušení šifrování u Apple s tím souvisí taky. Prostě chtějí mít pod kontrolou co kdo píše, jak se chová, a pak to nechají AI vyhodnocovat. Zatím pro vrahy možná. Nepochybuji, že časem jakékoliv další “rizikové” jednotlivce.
Velmi pokroková země…
Obávám se až příliš vysoké chybovosti, pokud AI zkopíruje naše vzorce uvažování a předsudky. Například, když si zde většina lidí myslí, že každý muslim je potencionální terorista (přitom ve skutečnosti je to třeba jen jeden muslim z miliónu) a tuhle myšlenku převezme i AI.
K tomu vám jen můžu říct, že AI které bude vypočítávat potenciálně nebezpečné chování (děje se to už teď, ale v menší míře),se vážně nebude řídit názory uživatelů nebo tím, co si kdo myslí.
Prostě si představte, že si si vycucne o člověku naprosto vše o jeho životě, a pak podle nějakého algoritmu na bázi existujících zločinů vypočítá kteří jedinci jsou rizikoví. Ty pak budou pravděpodobně sledovat trvale i přes chytré veřejné kamery a podobně.. Prostě budou v hledáčku.
Samozřejmě to bude “rasistické”, trochu jak říkáte. Ne proto, co říkají uživatelé, ale proto, že muslimové, černoši a další užiteční občané mají velmi nadstandardní pravděpodobnost kriminality
Pokud se AI učí od lidí (klidně ji někdo může schválně naprogramovat, aby se především učila od lidí), pak bude mít předsudky jako lidé. A jak my to rozeznáme?
Není AI jako AI. AI je pořád jen software a k různým účelům používá jiné zdroje a jinak je zpracovává. AI pro generování obrázků nebo jejich vylepšení taky nepoužívá informace o jaderné fyzice(trochu přitažené za vlasy, ale logiku v tom snad chápete).
A jak jsem říkal.. Předsudky mít může, ale na bázi pravděpodobností a statistiky, nikoli protože černý =vrahoun. Barvu pleti a náboženství nemusí (ale taky může a bylo by to opodstatněné) brát také v potaz. Protože bude hledat vzorce chování třeba. A rozhodně se to bude rychle zdokonalovat, takže postupně nějaké “předsudky z dosavadních vyšetřování” půjdou stranou úplně. AI je teprve v plenkách a už teď umí neskutečné věci, co teprve za pár let..záleží jak se to využije, klidně zotročí lidstvo(nebo spíš ten, kdo bude takovou “státní survelience” AI ovládat)