Prečo nový softvér na profilovanie vyvoláva obavy o súkromie

Obsah:

Prečo nový softvér na profilovanie vyvoláva obavy o súkromie
Prečo nový softvér na profilovanie vyvoláva obavy o súkromie
Anonim

Kľúčové poznatky

  • Softvér, ktorý využíva umelú inteligenciu na profilovanie ľudí, vyvoláva obavy o súkromie.
  • Cryfe kombinuje techniky analýzy správania s umelou inteligenciou.
  • Čínska spoločnosť Alibaba nedávno čelila kritike po tom, čo údajne uviedla, že jej softvér dokáže odhaliť Ujgurov a iné etnické menšiny.
Image
Image

Nový softvér poháňaný umelou inteligenciou, ktorý je určený pre zamestnávateľov na profilovanie svojich zamestnancov, vyvoláva obavy o súkromie.

Jedna nová softvérová platforma s názvom Cryfe kombinuje techniky analýzy správania s umelou inteligenciou. Vývojár tvrdí, že analyzovaním drobných indícií môže softvér odhaliť zámery ľudí počas rozhovorov. Niektorí pozorovatelia však tvrdia, že Cryfe a ďalšie typy softvéru, ktoré analyzujú správanie, môžu narušiť súkromie.

„Spoločnosti sa čoraz viac spoliehajú na AI pri profilovaní,“povedal expert na AI Václav Vincale v e-mailovom rozhovore. „Avšak ani ľudia, ktorí kódujú tieto algoritmy, tým menej pracovníci zákazníckej podpory, ktorých zastihnete po telefóne, vám nevedeli povedať, prečo dávajú nejaké odporúčanie.“

Viac ako slová

Cryfe vyvinula švajčiarska spoločnosť, ktorej zamestnanci boli vyškolení FBI v technikách profilovania. „Cryfe vo všetkej medziľudskej komunikácii nepočúva iba slová, ale identifikuje aj iné signály vysielané človekom, ako sú emócie, mikrovýrazy a všetky gestá,“povedala Caroline Matteucci, zakladateľka Cryfe, v e-mailovom rozhovore.

"Napríklad počas náboru nám to umožňuje ísť a hľadať skutočnú osobnosť nášho partnera."

Matteucci povedal, že súkromie používateľov je chránené, pretože spoločnosť je transparentná, pokiaľ ide o fungovanie jej softvéru. „Používateľ, skôr než bude môcť používať platformu, musí prijať všeobecné podmienky,“povedala.

"Je tam uvedené, že používateľ v žiadnom prípade nesmie odoslať rozhovor na analýzu bez písomného súhlasu partnera."

Cryfe nie je jediný softvér poháňaný AI, ktorý má za cieľ analyzovať ľudské správanie. Existuje tiež Humantic, ktorý tvrdí, že analyzuje správanie spotrebiteľov. „Prevratná technológia spoločnosti Humantic predpovedá správanie každého človeka bez toho, aby musel absolvovať osobnostný test,“uvádza sa na webovej stránke spoločnosti.

Image
Image

Spoločnosť tvrdí, že používa AI na vytváranie psychologických profilov uchádzačov na základe slov, ktoré používajú v životopisoch, sprievodných listoch, profiloch na LinkedIn a akomkoľvek inom texte, ktorý predložia.

Behaviorálny softvér sa v minulosti stretol s právnymi problémami. V roku 2019 agentúra Bloomberg Law uviedla, že Komisia pre rovnaké pracovné príležitosti (EEOC) skúmala prípady údajnej nezákonnej diskriminácie v dôsledku rozhodnutí súvisiacich s ľudskými zdrojmi za pomoci algoritmu.

„Toto všetko sa bude musieť vyriešiť, pretože budúcnosťou náboru je AI,“povedal pre Bloomberg právnik Bradford Newman.

Niektorí pozorovatelia majú problém so spoločnosťami, ktoré používajú softvér na sledovanie správania, pretože nie je dostatočne presný. V rozhovore Nigel Duffy, globálny líder v oblasti umelej inteligencie v profesionálnej spoločnosti EY, povedal InformationWeek, že ho trápi softvér, ktorý využíva kvízy na sociálnych sieťach a ovplyvňuje detekciu.

„Myslím si, že existuje naozaj presvedčivá literatúra o potenciáli zisťovania vplyvov, ale chápem to tak, že spôsob, ktorý sa často implementuje, je dosť naivný,“povedal.

„Ľudia vyvodzujú závery, ktoré veda v skutočnosti nepodporuje [napríklad] rozhodnutie, že niekto je potenciálne dobrý zamestnanec, pretože sa veľa usmieva, alebo rozhodnutie, že sa niekomu páčia vaše produkty, pretože sa veľa usmieva."

Čínske spoločnosti údajne profilujú menšiny

Sledovanie správania by mohlo mať aj zlovestnejšie účely, tvrdia niektoré skupiny pre ľudské práva. V Číne nedávno vzbudil rozruch gigant online trhoviska Alibaba po tom, čo údajne tvrdil, že jeho softvér dokáže odhaliť Ujgurov a iné etnické menšiny.

The New York Times informovali, že podnik v oblasti cloud computingu má softvér, ktorý dokáže skenovať obrázky a videá.

Ale ani ľudia, ktorí kódujú tieto algoritmy… vám nevedia povedať, prečo dávajú nejaké odporúčanie.

The Washington Post tiež nedávno informoval, že Huawei, ďalšia čínska technologická spoločnosť, testovala softvér, ktorý by mohol upozorniť orgány činné v trestnom konaní, keď jeho sledovacie kamery zachytili tváre Ujgurov.

Patentová prihláška spoločnosti Huawei z roku 2018 údajne tvrdila, že „identifikácia atribútov chodcov je veľmi dôležitá“v technológii rozpoznávania tváre."Atribúty cieľového objektu môžu byť pohlavie (muž, žena), vek (ako napríklad tínedžeri, stredný vek, starý) [alebo] rasa (Han, Ujgur),“uvádza sa v aplikácii.

Hovorca Huawei pre CNN Business povedal, že funkcia identifikácie etnickej príslušnosti by sa „nikdy nemala stať súčasťou aplikácie.“

Narastajúce využívanie umelej inteligencie na triedenie obrovského množstva údajov nevyhnutne vyvoláva obavy o súkromie. Možno nikdy nebudete vedieť, kto alebo čo vás analyzuje, keď nabudúce pôjdete na pracovný pohovor.

Odporúča: