Prečo potrebujeme AI, ktorá sa sama vysvetlí

Obsah:

Prečo potrebujeme AI, ktorá sa sama vysvetlí
Prečo potrebujeme AI, ktorá sa sama vysvetlí
Anonim

Kľúčové poznatky

  • Spoločnosti čoraz viac využívajú AI, ktorá vysvetľuje, ako dosahuje výsledky.
  • LinkedIn nedávno zvýšil svoje výnosy z predplatného po použití AI, ktorá predpovedala klientov, ktorým hrozí zrušenie, a opísala, ako dospela k svojim záverom.
  • Federálna obchodná komisia uviedla, že AI, ktorá nie je vysvetliteľná, by mohla byť vyšetrená.
Image
Image

Jedným z najhorúcejších nových trendov v softvéri by mohla byť umelá inteligencia (AI), ktorá vysvetľuje, ako dosahuje svoje výsledky.

Vysvetliteľná AI sa vypláca, pretože softvérové spoločnosti sa snažia urobiť AI zrozumiteľnejšou. LinkedIn nedávno zvýšil svoje príjmy z predplatného po použití AI, ktorá predpovedala klientov, ktorým hrozí zrušenie, a opísala, ako dospela k svojim záverom.

„Vysvetliteľná umelá inteligencia je o schopnosti dôverovať výstupu a zároveň pochopiť, ako sa tam stroj dostal,“povedal pre Lifewire Travis Nixon, generálny riaditeľ SynerAI a hlavný Data Science, Financial Services v Microsofte..

"'Ako?" je otázka, ktorá sa kladie mnohým systémom AI, najmä keď sa prijímajú rozhodnutia alebo sa vytvárajú výstupy, ktoré nie sú ideálne,“dodal Nixon. „Potrebujeme vedieť, prečo systémy umelej inteligencie prinášajú výsledky, od nespravodlivého zaobchádzania s rôznymi rasami až po zamieňanie holohlavej hlavy s futbalom. Keď pochopíme „ako“, prinúti spoločnosti a jednotlivcov odpovedať „čo ďalej?“.“

Zoznámenie sa s AI

AI sa ukázala ako presná a vytvára mnoho typov predpovedí. Umelá inteligencia však často dokáže vysvetliť, ako dospela k svojim záverom.

A regulačné orgány berú na vedomie problém vysvetliteľnosti AI. Federálna obchodná komisia uviedla, že AI, ktorá nie je vysvetliteľná, by mohla byť vyšetrená. EÚ zvažuje prijatie zákona o umelej inteligencii, ktorý zahŕňa požiadavky, aby používatelia mohli interpretovať predpovede umelej inteligencie.

Linkedin patrí medzi spoločnosti, ktoré si myslia, že vysvetliteľná AI môže pomôcť zvýšiť zisky. Predtým sa predajcovia LinkedIn spoliehali na svoje znalosti a trávili obrovské množstvo času preosievaním offline údajov, aby zistili, ktoré účty budú pravdepodobne pokračovať v podnikaní a o aké produkty by mohli mať záujem pri ďalšom obnovení zmluvy. Na vyriešenie problému LinkedIn spustil program s názvom CrystalCandle, ktorý zisťuje trendy a pomáha predajcom.

V inom príklade Nixon povedal, že počas vytvárania modelu stanovovania kvót pre predajcov spoločnosti bola jeho spoločnosť schopná začleniť vysvetliteľnú AI, aby identifikovala, aké charakteristiky poukazujú na úspešného nového predajcu.

"S týmto výstupom bolo vedenie tejto spoločnosti schopné rozpoznať, ktorých predajcov má nasadiť na 'rýchlu cestu' a ktorí potrebujú koučovanie, a to všetko skôr, ako sa vyskytli nejaké väčšie problémy," dodal.

Vysvetliteľná AI na mnoho použití

Vysvetliteľná AI sa v súčasnosti používa ako kontrola čreva pre väčšinu vedcov, povedal Nixon. Výskumníci spustili svoj model pomocou jednoduchých metód, ubezpečili sa, že nie je nič úplne nefunkčné, a potom odošlite model.

"Je to čiastočne preto, že mnohé organizácie zaoberajúce sa výskumom údajov optimalizovali svoje systémy okolo 'čas nad hodnotu' ako KPI, čo viedlo k uponáhľaným procesom a neúplným modelom," dodal Nixon.

Obávam sa, že spätná väzba od nezodpovedných modelov by mohla vážne vrátiť odvetvie AI späť.

Ľudia často nie sú presvedčení o výsledkoch, ktoré AI nedokáže vysvetliť. Raj Gupta, hlavný inžinier v spoločnosti Cogito, v e-maile uviedol, že jeho spoločnosť vykonala prieskum u zákazníkov a zistila, že takmer polovica spotrebiteľov (43 %) by mala pozitívnejšie vnímanie spoločnosti a AI, ak by spoločnosti jasnejšie hovorili o ich používaní. technológie.

A nie sú to len finančné údaje, ktoré dostávajú pomocnú ruku od vysvetliteľnej AI. Jednou z oblastí, ktorá profituje z nového prístupu, sú obrazové dáta, kde je ľahké určiť, ktoré časti obrazu považuje algoritmus za podstatné a kde je pre človeka ľahké vedieť, či tieto informácie dávajú zmysel, Samantha Kleinberg, docentka zo Stevens Inštitút technológie a odborník na vysvetliteľnú AI povedal Lifewire e-mailom.

"Je to oveľa ťažšie urobiť s EKG alebo údajmi z kontinuálneho monitora glukózy," dodal Kleinberg.

Nixon predpovedal, že vysvetliteľná AI bude v budúcnosti základom každého systému AI. A bez vysvetliteľnej AI môžu byť výsledky hrozné, povedal.

„Dúfam, že na tomto fronte pokročíme dostatočne ďaleko, aby sme v nadchádzajúcich rokoch považovali vysvetliteľnú AI za samozrejmosť, a že sa dnes pozrieme späť na tú dobu prekvapení, že niekto by bol taký blázon, aby nasadil modely, ktorým nerozumel, pridal.„Ak sa s budúcnosťou nestretneme týmto spôsobom, obávam sa, že spätná väzba od nezodpovedných modelov by mohla vážne vrátiť odvetvie umelej inteligencie.“

Odporúča: