Kľúčové poznatky
- Nový softvérový nástroj umožňuje AI monitorovať internetové komentáre kvôli nenávistným prejavom.
- AI je potrebná na moderovanie internetového obsahu, pretože obrovské množstvo materiálu prevyšuje ľudské schopnosti.
- Niektorí odborníci však tvrdia, že monitorovanie reči pomocou umelej inteligencie vyvoláva obavy o súkromie.
Keďže online nenávistné prejavy pribúdajú, jedna spoločnosť tvrdí, že môže mať riešenie, ktoré sa nespolieha na ľudských moderátorov.
Start s názvom Spectrum Labs poskytuje poskytovateľom platforiem technológiu umelej inteligencie na detekciu a zastavenie toxických búrz v reálnom čase. Odborníci však tvrdia, že monitorovanie AI tiež vyvoláva problémy s ochranou súkromia.
„Monitorovanie AI si často vyžaduje sledovanie vzorov v priebehu času, čo si vyžaduje uchovávanie údajov,“povedal pre Lifewire v e-mailovom rozhovore David Moody, vedúci spolupracovník spoločnosti Schellman, ktorá sa zaoberá posudzovaním súladu s bezpečnosťou a ochranou súkromia. "Tieto údaje môžu zahŕňať údaje, ktoré zákony označili ako osobné údaje (osobne identifikovateľné informácie alebo PII)."
Viac nenávistných prejavov
Spectrum Labs sľubuje high-tech riešenie odvekého problému nenávistných prejavov.
„V priemere pomáhame platformám znížiť úsilie o moderovanie obsahu o 50 % a 10-násobne zvýšiť detekciu toxického správania,“tvrdí spoločnosť na svojej webovej stránke.
Spectrum tvrdí, že spolupracovalo s výskumnými inštitútmi s odbornými znalosťami v oblasti špecifického škodlivého správania na vytvorení viac ako 40 modelov identifikácie správania. Platforma spoločnosti na moderovanie obsahu Guardian bola vytvorená tímom vedcov a moderátorov údajov, aby „podporila ochranu komunít pred toxicitou."
Narastá potreba spôsobov boja proti nenávistným prejavom, pretože pre človeka nie je možné monitorovať každú časť online prevádzky, Dylan Fox, generálny riaditeľ spoločnosti AssemblyAI, startupu, ktorý poskytuje rozpoznávanie reči a má zákazníkov zapojených do monitorovania nenávisti prejav, povedal Lifewire v e-mailovom rozhovore.
„Len na Twitteri je denne okolo 500 miliónov tweetov,“dodal. "Aj keby jedna osoba mohla skontrolovať tweet každých 10 sekúnd, Twitter by na to potreboval zamestnať 60 tisíc ľudí. Namiesto toho používame inteligentné nástroje, ako je AI na automatizáciu procesu."
Umelá inteligencia môže na rozdiel od človeka fungovať 24 hodín denne, 7 dní v týždni a potenciálne môže byť spravodlivejšia, pretože je navrhnutá tak, aby jednotne uplatňovala svoje pravidlá na všetkých používateľov bez toho, aby do toho zasahovali akékoľvek osobné presvedčenia, povedal Fox. Ľudia, ktorí musia monitorovať a moderovať obsah, tiež niečo platia.
"Môžu byť vystavení násiliu, nenávisti a nečestným činom, ktoré môžu poškodiť duševné zdravie človeka," povedal.
Spectrum nie je jedinou spoločnosťou, ktorá sa snaží automaticky odhaľovať online nenávistné prejavy. Napríklad Center Malaysia nedávno spustilo online sledovač navrhnutý na vyhľadávanie nenávistných prejavov medzi malajzijskými obyvateľmi. Softvér, ktorý vyvinuli s názvom Tracker Benci, využíva strojové učenie na detekciu nenávistných prejavov online, najmä na Twitteri.
Výzvou je, ako vytvoriť priestory, v ktorých sa ľudia môžu skutočne konštruktívne zapojiť.
Obavy ochrany osobných údajov
Zatiaľ čo technologické riešenia, ako je Spectrum, môžu bojovať proti nenávistným prejavom online, vyvolávajú aj otázky o tom, koľko by mali robiť policajné počítače.
Existujú dôsledky slobody prejavu, ale nielen pre rečníkov, ktorých príspevky by boli odstránené ako nenávistné prejavy, Irina Raicu, riaditeľka internetovej etiky v Markkula Center for Applied Ethics na Santa Clara University, povedala Lifewire v e-maile rozhovor.
„Povolenie obťažovania v mene „slobody prejavu“prinútilo ciele takéhoto prejavu (najmä ak je zameraný na konkrétnych jednotlivcov) prestať hovoriť – aby úplne opustili rôzne konverzácie a platformy,“povedal Raicu.„Výzvou je, ako vytvoriť priestory, v ktorých sa ľudia môžu skutočne konštruktívne zapojiť.“
Monitorovanie reči AI by nemalo vyvolávať problémy so súkromím, ak spoločnosti počas monitorovania používajú verejne dostupné informácie, povedal Fox. Ak však spoločnosť nakupuje podrobnosti o tom, ako používatelia interagujú na iných platformách, aby vopred identifikovali problémových používateľov, mohlo by to vyvolať obavy o súkromie.
„Určite to môže byť trochu sivá oblasť, v závislosti od aplikácie,“dodal.
Justin Davis, generálny riaditeľ spoločnosti Spectrum Labs, povedal Lifewire v e-maile, že technológia spoločnosti dokáže skontrolovať 2 až 5 tisíc riadkov údajov za zlomok sekundy. „Najdôležitejšie je, že technológia môže znížiť množstvo toxického obsahu, ktorému sú ľudskí moderátori vystavení,“povedal.
Možno sme na vrchole revolúcie v monitorovaní ľudskej reči a textu online pomocou AI. Budúce pokroky zahŕňajú lepšie nezávislé a autonómne monitorovacie schopnosti na identifikáciu predtým neznámych foriem nenávistných prejavov alebo akýchkoľvek iných cenzurovateľných vzorov, ktoré sa budú vyvíjať, povedal Moody.
AI bude tiež čoskoro schopná rozpoznať vzorce v konkrétnych rečových vzoroch a spájať zdroje a ich ďalšie aktivity prostredníctvom analýzy správ, verejných podaní, analýzy vzorov návštevnosti, fyzického monitorovania a mnohých ďalších možností, dodal.
Niektorí odborníci však tvrdia, že ľudia budú vždy musieť pracovať s počítačmi, aby monitorovali nenávistné prejavy.
"AI samotná nebude fungovať," povedal Raicu. "Musí byť uznaný ako jeden nedokonalý nástroj, ktorý sa musí používať v spojení s inými odpoveďami."
Oprava 25.1.2022: Pridaný citát od Justina Davisa v 5. odseku od konca, aby odrážal e-mail po zverejnení.