Prečo by softvér na čítanie emócií mohol narušiť vaše súkromie

Obsah:

Prečo by softvér na čítanie emócií mohol narušiť vaše súkromie
Prečo by softvér na čítanie emócií mohol narušiť vaše súkromie
Anonim

Kľúčové poznatky

  • Zoom údajne povedal, že použije AI na vyhodnotenie nálady alebo úrovne interakcie používateľa.
  • Skupiny na ochranu ľudských práv žiadajú spoločnosť Zoom, aby prehodnotila svoj plán kvôli obavám o súkromie a bezpečnosť údajov.
  • Niektoré spoločnosti používajú počas rozhovorov aj softvér na zisťovanie emócií na posúdenie, či používateľ venuje pozornosť.
Image
Image

Rastúce využívanie umelej inteligencie (AI) na monitorovanie ľudských emócií vyvoláva obavy o súkromie.

Organizácie na ochranu ľudských práv žiadajú spoločnosť Zoom, aby spomalila svoj plán na zavedenie AI na analýzu emócií do svojho softvéru na videokonferencie. Spoločnosť údajne uviedla, že použije AI na vyhodnotenie nálady alebo úrovne interakcie používateľa.

"Odborníci pripúšťajú, že analýza emócií nefunguje," napísalo konzorcium skupín pre ľudské práva vrátane ACLU v liste spoločnosti Zoom. "Výrazy tváre sú často oddelené od emócií pod nimi a výskum zistil, že dokonca ani ľudia nedokážu niekedy presne čítať alebo merať emócie druhých. Vývoj tohto nástroja dodáva pseudovede na dôveryhodnosti a ohrozuje vašu reputáciu."

Zoom neodpovedal okamžite na žiadosť Lifewire o komentár.

Majte prehľad o svojich emóciách

Podľa článku Protokol by monitorovací systém Zoom s názvom Q for Sales kontroloval pomer doby hovoru používateľov, oneskorenie odozvy a časté zmeny reproduktorov, aby sledoval, ako je osoba zaujatá. Zoom by tieto údaje použil na priradenie skóre medzi nulou a 100, pričom vyššie skóre naznačuje vyššiu angažovanosť alebo sentiment.

Skupiny na ochranu ľudských práv tvrdia, že softvér by mohol diskriminovať ľudí so zdravotným postihnutím alebo určitými etnickými skupinami za predpokladu, že každý používa na komunikáciu rovnakú mimiku, hlasové vzorce a reč tela. Skupiny tiež naznačujú, že softvér by mohol predstavovať riziko pre bezpečnosť údajov.

Image
Image

„Zhromažďovanie hlbokých osobných údajov by mohlo z akéhokoľvek subjektu, ktorý nasadí túto technológiu, urobiť cieľ pre špehovanie vládnych orgánov a zlomyseľných hackerov,“píše sa v liste.

Julia Stoyanovich, profesorka počítačovej vedy a inžinierstva na New York University, povedala Lifewire v e-mailovom rozhovore, že je skeptická, pokiaľ ide o tvrdenia za detekciou emócií.

„Nechápem, ako môže takáto technológia fungovať – emocionálny prejav ľudí je veľmi individuálny, veľmi kultúrne závislý a veľmi špecifický od kontextu,“povedal Stoyanovich."Ale čo je možno ešte dôležitejšie, nechápem, prečo by sme chceli, aby tieto nástroje fungovali. Inými slovami, mali by sme ešte väčšie problémy, ak by fungovali dobre. Ale možno ešte predtým, ako budeme premýšľať o rizikách, by sme mali opýtajte sa – aké sú potenciálne výhody takejto technológie?"

Zoom nie je jedinou spoločnosťou, ktorá používa softvér na detekciu emócií. Theo Wills, hlavný riaditeľ ochrany súkromia v Kuma LLC, konzultačnej spoločnosti v oblasti ochrany súkromia a bezpečnosti, prostredníctvom e-mailu pre Lifewire povedal, že softvér na detekciu emócií sa používa počas rozhovorov na posúdenie, či používateľ venuje pozornosť. Testuje sa aj v dopravnom priemysle na monitorovanie, či sa vodiči javia ospalí, na video platformách na meranie záujmu a prispôsobenie odporúčaní a vo vzdelávacích tutoriáloch na určenie, či je určitá metóda výučby pútavá.

Wills tvrdil, že kontroverzia okolo softvéru na monitorovanie emócií je skôr otázkou etiky údajov ako súkromia. Povedala, že ide o systém, ktorý robí rozhodnutia v reálnom svete na základe predtuchy.

"S touto technológiou teraz predpokladáte dôvod, prečo mám na tvári konkrétny výraz, ale impulz za výrazom sa značne líši v dôsledku vecí, ako je sociálna alebo kultúrna výchova, rodinné správanie, minulé skúsenosti alebo nervozita momentálne,“dodal Wills. "Založenie algoritmu na predpoklade je vo svojej podstate chybné a potenciálne diskriminačné. Mnohé populácie nie sú zastúpené v populácii, na ktorej sú algoritmy založené, a pred použitím je potrebné uprednostniť vhodné znázornenie."

Praktické úvahy

Problémy vyvolané softvérom na sledovanie emócií môžu byť praktické aj teoretické. Matt Heisie, spoluzakladateľ Ferret.ai, aplikácie riadenej AI, ktorá poskytuje informácie o vzťahoch, povedal Lifewire v e-maile, že používatelia sa musia pýtať, kde sa vykonáva analýza tvárí a aké údaje sa ukladajú. Vykonáva sa štúdia na záznamoch hovorov, spracováva sa v cloude alebo na lokálnom zariadení?

Heisie sa tiež opýtala, keď sa algoritmus dozvie, aké údaje zhromažďuje o tvári alebo pohyboch osoby, ktoré by sa potenciálne mohli oddeliť od algoritmu a použiť na opätovné vytvorenie niečích biometrických údajov? Ukladá spoločnosť snímky na overenie alebo overenie poznatkov algoritmu a je používateľ upozornený na tieto nové odvodené údaje alebo uložené obrázky, ktoré sa potenciálne zbierajú z ich hovorov?

„Toto všetko sú problémy, ktoré mnohé spoločnosti vyriešili, no sú aj spoločnosti, ktoré otriasol škandálmi, keď sa ukázalo, že to neurobili správne,“povedala Heisie. "Facebook je najvýznamnejším prípadom spoločnosti, ktorá zrušila svoju platformu na rozpoznávanie tváre kvôli obavám o súkromie používateľov. Materská spoločnosť Meta teraz sťahuje funkcie AR z Instagramu v niektorých jurisdikciách, ako sú Illinois a Texas, kvôli zákonom o ochrane osobných údajov v oblasti biometrických údajov."

Odporúča: