Ako mohla AI monitorovať svojich nebezpečných potomkov

Obsah:

Ako mohla AI monitorovať svojich nebezpečných potomkov
Ako mohla AI monitorovať svojich nebezpečných potomkov
Anonim

Kľúčové poznatky

  • Nový článok tvrdí, že umelá inteligencia dokáže určiť, ktoré výskumné projekty môžu potrebovať väčšiu reguláciu ako iné.
  • Je to súčasť rastúceho úsilia zistiť, aký druh AI môže byť nebezpečný.
  • Jeden odborník hovorí, že skutočné nebezpečenstvo AI je v tom, že môže spôsobiť hlúposť ľudí.

Image
Image

Umelá inteligencia (AI) ponúka veľa výhod, ale aj niektoré potenciálne nebezpečenstvá. A teraz výskumníci navrhli metódu, ako sledovať ich počítačové výtvory.

Medzinárodný tím v novom dokumente hovorí, že AI dokáže určiť, ktoré typy výskumných projektov môžu vyžadovať väčšiu reguláciu ako iné. Vedci použili model, ktorý spája koncepty z biológie a matematiky a je súčasťou rastúceho úsilia zistiť, aký druh AI môže byť nebezpečný.

„Samozrejme, ak sa tak rozhodneme […], môže vzniknúť nebezpečné „sci-fi“používanie AI, ale to, čo robí AI nebezpečnou, nie je samotná AI, ale [ako ju používame],“Thierry Rayna, predseda Technology for Change, na École Polytechnique vo Francúzsku, povedal Lifewire v e-mailovom rozhovore. „Implementácia AI môže byť buď zvyšovaním kompetencií (napríklad posilňuje relevantnosť zručností a vedomostí človeka/pracovníka), alebo ničením kompetencií, t. j. AI robí existujúce zručnosti a znalosti menej užitočnými alebo zastaranými.“

Keeping Tabs

Autori nedávneho článku v príspevku napísali, že vytvorili model na simuláciu hypotetických súťaží umelej inteligencie. Spustili simuláciu stokrát, aby sa pokúsili predpovedať, ako by mohli fungovať preteky umelej inteligencie v reálnom svete.

„Premennou, ktorú sme považovali za obzvlášť dôležitú, bola „dĺžka“pretekov – čas, ktorý naše simulované preteky potrebovali na dosiahnutie svojho cieľa (funkčný produkt AI), “napísali vedci. „Keď preteky AI rýchlo dosiahli svoj cieľ, zistili sme, že konkurenti, ktorých sme naprogramovali, aby vždy prehliadali bezpečnostné opatrenia, vždy vyhrali.“

Na rozdiel od toho výskumníci zistili, že dlhodobé projekty umelej inteligencie neboli také nebezpečné, pretože nie vždy víťazmi boli tí, ktorí prehliadali bezpečnosť. "Vzhľadom na tieto zistenia bude dôležité, aby regulačné orgány určili, ako dlho budú pravdepodobne trvať rôzne preteky AI, pričom budú uplatňovať rôzne predpisy na základe ich očakávaných časových harmonogramov," napísali. „Naše zistenia naznačujú, že jedno pravidlo pre všetky preteky umelej inteligencie – od šprintov po maratóny – povedie k niektorým výsledkom, ktoré nie sú ani zďaleka ideálne.“

David Zhao, výkonný riaditeľ spoločnosti Coda Strategy, ktorá poskytuje poradenstvo v oblasti AI, v e-mailovom rozhovore pre Lifewire povedal, že identifikácia nebezpečnej AI môže byť náročná. Výzvy spočívajú v tom, že moderné prístupy k AI využívajú prístup hlbokého učenia.

„Vieme, že hlboké učenie prináša lepšie výsledky v mnohých prípadoch použitia, ako je detekcia obrazu alebo rozpoznávanie reči,“povedal Zhao. "Pre ľudí je však nemožné pochopiť, ako algoritmus hlbokého učenia funguje a ako produkuje svoj výstup. Preto je ťažké povedať, či je AI, ktorá prináša dobré výsledky, nebezpečná, pretože pre ľudí je nemožné pochopiť, čo sa deje.""

Softvér môže byť „nebezpečný“, keď sa používa v kritických systémoch, ktoré majú zraniteľné miesta, ktoré môžu zneužiť zlí herci alebo môžu priniesť nesprávne výsledky, uviedol e-mailom Matt Shea, riaditeľ stratégie spoločnosti AI MixMode. Dodal, že nebezpečná umelá inteligencia môže mať za následok aj nesprávnu klasifikáciu výsledkov, stratu údajov, ekonomický dopad alebo fyzické poškodenie.

"Pomocou tradičného softvéru vývojári kódujú algoritmy, ktoré môže osoba preskúmať, aby zistila, ako pripojiť zraniteľnosť alebo opraviť chybu pohľadom na zdrojový kód," povedal Shea.„Vďaka AI je však hlavná časť logiky vytvorená zo samotných údajov, zakódovaných do dátových štruktúr, ako sú neurónové siete a podobne. Výsledkom sú systémy, ktoré sú „čiernymi skrinkami“, ktoré nemožno skúmať, aby našli a opravili slabé miesta. ako normálny softvér."

Nebezpečenstvo pred nami?

Zatiaľ čo AI bola vo filmoch ako Terminátor zobrazená ako zlá sila, ktorá má v úmysle zničiť ľudstvo, skutočné nebezpečenstvá môžu byť prozaickejšie, hovoria odborníci. Rayna napríklad naznačuje, že AI by nás mohla urobiť hlúpejšími.

„Môže to ľudí pripraviť o trénovanie ich mozgov a rozvíjanie odborných znalostí,“povedal. „Ako sa môžete stať odborníkom na rizikový kapitál, ak väčšinu času netrávite čítaním aplikácií pre startupy? Horšie je, že AI je notoricky známa „čierna skrinka“a je málo vysvetliteľná. Nevedomosť o tom, prečo bolo prijaté konkrétne rozhodnutie o umelej inteligencii, znamená, že sa z neho dá veľmi málo poučiť, rovnako ako sa nemôžete stať skúseným bežcom jazdením po štadióne na Segwayi.”

Je ťažké povedať, či je AI, ktorá prináša dobré výsledky, nebezpečná, pretože ľudia nedokážu pochopiť, čo sa deje.

Asi najbezprostrednejšou hrozbou AI je možnosť, že by mohla poskytnúť neobjektívne výsledky, povedal Lyle Solomon, právnik, ktorý píše o právnych dôsledkoch AI, v e-mailovom rozhovore.

"AI môže pomôcť pri prehlbovaní spoločenských rozdielov. Umelá inteligencia je v podstate vytvorená z údajov zozbieraných od ľudských bytostí," dodal Solomon. "[Ale] napriek obrovskému množstvu údajov obsahuje minimálne podmnožiny a nezahŕňa to, čo si každý myslí. Údaje zhromaždené z komentárov, verejných správ, recenzií atď., s inherentnými zaujatosťami, spôsobia, že AI zosilní diskrimináciu a nenávisť."

Odporúča: