Alexina schopnosť napodobňovať mŕtvych príbuzných môže byť tá najstrašidelnejšia vec

Obsah:

Alexina schopnosť napodobňovať mŕtvych príbuzných môže byť tá najstrašidelnejšia vec
Alexina schopnosť napodobňovať mŕtvych príbuzných môže byť tá najstrašidelnejšia vec
Anonim

Kľúčové poznatky

  • Hlasový asistent Alexa od Amazonu dokáže skopírovať hlas už s jednou minútou zvuku.
  • Mohli by ste požiadať Alexu, aby prečítal príbeh hlasom mŕtveho rodiča.
  • Je to rovnaký nápad ako hlboké falzifikáty, ktoré sa používajú len pre sily dobra.
Image
Image

Najnovším trikom Amazon Alexa je naučiť sa napodobňovať hlas mŕtveho milovaného človeka, aby k vám mohol hovoriť až za hrob.

Alexa potrebuje len minútu hovoreného zvuku, aby presvedčivo napodobnila hlas. Amazon to účtuje ako upokojujúcu funkciu, ktorá vás môže spojiť s blízkymi, ale môže to byť aj dosť strašidelný zážitok. A ukazuje, aké ľahké je vytvoriť hlboký falošný zvuk, ktorý je dostatočne dobrý na to, aby nás oklamal, aj keď ide o hlas, ktorý veľmi dobre poznáme.

„Amazon definitívne vstúpil na pomerne unikátne a bizarné územie so svojím oznámením, že Alexa sa čoskoro bude môcť naučiť a potom používať hlas mŕtvych príbuzných,“povedal Bill Mann, odborník na ochranu súkromia v spoločnosti Restore Privacy. Lifewire prostredníctvom e-mailu. "Pre niektorých ľudí to vôbec nie je strašidelné. V skutočnosti to môže byť skôr dojemné."

Ghost in the Machine

Amazon ako súčasť svojej výročnej konferencie re:MARS predvádza túto funkciu v krátkom videu. V ňom sa dieťa pýta Alexa, či mu stará mama môže ďalej čítať „Čarodejník z krajiny Oz“, obľúbené dielo každého dieťaťa, ktoré je priateľské k hlavným prejavom. A je to celkom dojímavý moment. Je ťažké necítiť ľudské emócie, keď babička začne čítať.

"Ľudia zápasia so smrteľnosťou, najmä v západnej kultúre. Po stáročia sme sa snažili nájsť spôsoby, ako si uctiť pamiatku mŕtvych, od posmrtných masiek, cez pramene vlasov, po staré fotografie až po pozeranie starých filmov," Andrew Selepak, profesor sociálnych médií na Floridskej univerzite, povedal Lifewire prostredníctvom e-mailu. "Deepfakes používajú najnovšiu technológiu na vytvorenie novej posmrtnej masky zosnulej milovanej osoby. Ale v závislosti od perspektívy človeka je to strašidelné alebo spôsob, ako si pripomenúť a držať niekoho, koho milujete, keď zomrel?"

Ale memento mori môže byť upokojujúce aj strašidelné. Priateľ člena rodiny je mŕtvy, ale stále ho môžete počuť hovoriť. Nepomôže, že Alexa má v minulosti zvláštne a niekedy desivé správanie. V roku 2018, keď sa publicista NYT Farhad Manjoo uložil do postele, jeho Amazon Echo „začalo nariekať, ako dieťa kričiace v sne z hororového filmu.“

Čoskoro potom Amazon uznal, že Alexa sa niekedy nahlas smiala, čo je spolu s tínedžermi a pivnicami hororový film 101.

Človek sa môže len čudovať, ako by ste sa cítili, keby Alexa použila rovnaké triky v hlase starej mamy.

Deep Fake

Zjavná ľahkosť, s akou sa Alexa učí napodobňovať hlas, nás vedie k hanebnejším použitiam klonovania hlasu: hlbokým falzifikátom.

Image
Image

"Hlboký zvuk nie je nový, aj keď je málo pochopený a málo známy. Táto technológia je k dispozícii už roky na obnovenie hlasu jednotlivca pomocou umelej inteligencie a hlbokého učenia s použitím relatívne malého množstva skutočného zvuku od osoby, " hovorí Selepak. "Takáto technológia môže byť aj nebezpečná a deštruktívna. Narušený jedinec by mohol obnoviť hlas mŕtveho bývalého priateľa alebo priateľky a použiť nový zvuk na vyslovenie nenávistných a zraňujúcich vecí."

To je len v kontexte Alexa. Hlboký falošný zvuk by mohol ísť oveľa ďalej a presvedčiť ľudí, že prominentní politici veria napríklad veciam, ktorým neveria. Ale na druhej strane, čím viac si na tieto hlboké falzifikáty – možno v podobe týchto hlasov Alexa – zvykneme, tým viac budeme skeptickí voči ohavnejším falzifikátom. Potom znova, vzhľadom na to, aké ľahké je šíriť lži na Facebooku, možno nie.

Amazon neuviedol, či táto funkcia prichádza do Alexa, alebo či ide len o technologické demo. Tak trochu dúfam, že áno. Technika je najlepšia, keď sa používa humanistickým spôsobom, ako je tento, a aj keď je jednoduchá reakcia nazvať to strašidelné, ako hovorí Selepak, v skutočnosti sa to príliš nelíši od pozerania starých videí alebo počúvania uložených hlasových správ. ako postava v televíznej relácii s lenivým scenárom.

A ak je technológia na falšovanie falzifikátov ľahko dostupná, prečo ju nevyužiť na utešenie?

Odporúča: