Predpoveď zločinu AI by mohla obviniť nesprávnych ľudí

Obsah:

Predpoveď zločinu AI by mohla obviniť nesprávnych ľudí
Predpoveď zločinu AI by mohla obviniť nesprávnych ľudí
Anonim

Kľúčové poznatky

  • Softvérová spoločnosť údajne zhromažďuje informácie zo sociálnych médií na vytváranie profilov, ktoré možno použiť na identifikáciu ľudí, ktorí predstavujú bezpečnostné riziká.
  • Voyager Labs uzavrelo významnú dohodu s japonskou vládnou agentúrou.
  • Odborníci však varujú, že softvér na predpovedanie AI sa dá oklamať.
Image
Image

Vaše online informácie by sa mohli použiť na predpovedanie, či by ste mohli spáchať trestný čin.

Voyager Labs údajne zhromažďuje informácie zo sociálnych médií na vytváranie profilov, ktoré možno použiť na identifikáciu ľudí, ktorí predstavujú bezpečnostné riziká. Ide o súčasť rastúceho úsilia využívať umelú inteligenciu (AI) na vyšetrovanie potenciálnych zločincov. Niektorí odborníci však tvrdia, že toto hnutie je plné potenciálnych problémov.

„Je veľmi ťažké predpovedať ľudské správanie,“povedal pre Lifewire v e-mailovom rozhovore Matthew Carr, bezpečnostný výskumník v Atumcell Group. "Nie sme schopní predpovedať ani naše vlastné správanie, nieto správanie niekoho iného. Myslím si, že je možné, že by sa AI mohla v budúcnosti použiť na tento účel, ale v súčasnosti sme veľmi ďaleko od toho, aby sme to dokázali."

Vytváranie profilov

Ako nedávno informoval denník The Guardian, policajné oddelenie v Los Angeles skúmalo používanie softvéru na predpovedanie kriminality od Voyager Lab. Spoločnosť tiež oznámila, že uzavrela významnú dohodu s japonskou vládnou agentúrou.

Japonská dohoda poskytuje vládnej agentúre vyšetrovaciu platformu založenú na AI, ktorá analyzuje obrovské množstvo informácií z akéhokoľvek zdroja vrátane otvorených a podrobných údajov.

„Som rád, že spolupracujeme v boji proti terorizmu a zločinu,“povedal Divya Khangarot, výkonný riaditeľ APAC vo Voyager Labs, v tlačovej správe. "Pomocou špičkových spravodajských riešení Voyager Lab naši klienti získavajú jedinečné schopnosti na proaktívne identifikovanie a narušenie potenciálnych hrozieb. Prinášame ďalšie vrstvy hlbokých investigatívnych poznatkov pomocou kombinácie AI, strojového učenia a OSINT na odhaľovanie skrytých stôp, porušených informácií, a zlí herci."

Nie ste taký chytrý?

V e-mailovom rozhovore však Matt Heisie, spoluzakladateľ spoločnosti Ferret.ai, ktorá tiež používa AI na predpovedanie páchateľov, spochybnil niektoré tvrdenia laboratórií Voyager.

"Existuje taká jasná súvislosť medzi, povedzme, záznamom o zatknutí a budúcim kriminálnym správaním, keďže existuje čierna škvrna na teste a vznik nádoru?" povedal. „Premýšľajte o všetkých možných zmätkoch, ktoré sa stali súčasťou tohto zatknutia – v akej štvrti daná osoba žila, množstvo a kvalita, dokonca zaujatosť, polície v tejto oblasti. Vek osoby, jej pohlavie, jej fyzický vzhľad, to všetko má prelínajúci sa vplyv na pravdepodobnosť, že táto osoba bude mať záznam o zatknutí, úplne oddelene od jej skutočnej náchylnosti spáchať zločin, ktorý sa snažíme predpovedať."

Obžalovaní s lepšími právnymi zástupcami budú s väčšou pravdepodobnosťou schopní zabrániť tomu, aby sa záznamy stali verejne dostupnými, povedala Heisie. Niektoré jurisdikcie obmedzujú zverejňovanie výstrelov alebo záznamov o zatknutí na ochranu obvinených.

„Počítač sa bude učiť na základe údajov, ktoré mu poskytnete, a začlení všetky predsudky, ktoré boli súčasťou tohto zberu údajov…“

„Toto všetko pridáva algoritmom ďalšie skreslenie,“dodal. „Počítač sa bude učiť na základe údajov, ktoré mu poskytnete, a do učenia a interpretácie začlení všetky predsudky, ktoré boli súčasťou tohto zberu údajov.“

Uskutočnilo sa niekoľko pokusov vytvoriť zločin predpovedajúci AI a často s škandalóznymi výsledkami, povedala Heisie.

COMPAS, algoritmus, ktorý orgány činné v trestnom konaní používajú na predpovedanie recidívy, sa často používa pri určovaní trestu a kaucie. Od roku 2016 čelila škandálom pre rasovú zaujatosť a predpovedala, že černošskí obžalovaní predstavujú vyššie riziko recidívy ako v skutočnosti, a naopak pre bielych obžalovaných.

V roku 2020 sa viac ako 1 000 technológov a vedcov vrátane akademikov a odborníkov na AI z Harvardu, MIT, Google a Microsoftu vyslovilo proti článku, v ktorom tvrdili, že výskumníci vyvinuli algoritmus, ktorý dokáže predpovedať kriminalitu výlučne na základe Heisie poznamenala, že publikovanie takýchto štúdií posilňuje už existujúcu rasovú zaujatosť v systéme trestného súdnictva.

Image
Image

Čína je najväčším a najrýchlejšie rastúcim trhom pre tento typ technológie, a to predovšetkým vďaka širokému prístupu k súkromným údajom, s viac ako 200 miliónmi sledovacích kamier a pokročilým výskumom AI zameraným na tento problém už mnoho rokov, povedala Heisie. Systémy, ako je CloudWalk's Police Cloud, sa teraz používajú na predpovedanie a sledovanie zločincov a presné určenie orgánov činných v trestnom konaní.

"Aj tam sú však hlásené podstatné odchýlky," povedala Heisie.

Heisie dodal, že jeho spoločnosť starostlivo spravuje údaje, ktoré sa tam dostanú, a nepoužíva výstrely ani záznamy o zatknutí, „namiesto toho sa zameriava na objektívnejšie kritériá.“

„Naša AI sa učila zo spravovaných údajov, ale čo je dôležitejšie, učí sa aj od ľudí, ktorí sami analyzujú, spravujú a vyhodnocujú záznamy a hovoria nám o svojich interakciách s ostatnými,“dodal. „Zachovávame tiež úplnú transparentnosť a bezplatný a verejný prístup k našej aplikácii (tak rýchlo, ako ich môžeme uviesť do beta verzie) a vítame prehľad o našich procesoch a postupoch.“

Odporúča: