Kľúčové poznatky
- Deep Nostalgia je nový program, ktorý vám umožňuje animovať staré fotografie.
- Táto technológia ukazuje, aké ľahké je vytvárať videá ľudí, ktorí robia veci, ktoré v skutočnom živote nerobili.
- Deep fake technológia je už taká sofistikovaná, že je ťažké povedať, či je video skutočné alebo vytvorené počítačom, hovorí jeden odborník.
Dávajte si pozor na nový softvér, ktorý môže vytvárať takzvané „deep fake“, v ktorých možno simulovať videá skutočných ľudí, varujú odborníci.
Hlboká nostalgia, ktorú vydala spoločnosť MyHeritage, je trendom na sociálnych médiách, pričom používatelia oživujú každého od slávnych skladateľov až po mŕtvych príbuzných. Softvér vyvoláva zmiešané reakcie, pričom niektorí ľudia sú z výtvorov nadšení a pre iných sú strašidelné. Táto technológia ukazuje, aké ľahké je vytvárať videá ľudí, ktorí robia veci, ktoré v skutočnom živote nerobili.
„Technológia hĺbkových falošných správ je čoraz sofistikovanejšia a nebezpečnejšia,“povedal v e-mailovom rozhovore Aaron Lawson, zástupca riaditeľa Laboratória pre technológiu a výskum reči SRI International (STAR). "Je to čiastočne spôsobené povahou umelej inteligencie. Tam, kde si 'tradičná' technológia vyžaduje ľudský čas a energiu na zlepšenie, AI sa môže učiť sama od seba."
„Ale schopnosť AI rozvíjať sa sama o sebe je dvojsečná zbraň,“pokračoval Lawson. "Ak je AI vytvorená na to, aby robila niečo benevolentné, skvelé. Ale keď je AI navrhnutá na niečo škodlivé, ako sú hlboké falzifikáty, nebezpečenstvo je bezprecedentné."
Softvér oživuje fotografie
Webová stránka o genealógii MyHeritage minulý mesiac predstavila animačný nástroj. Technológia, známa ako Deep Nostalgia, umožňuje používateľom animovať fotografie prostredníctvom webovej stránky MyHeritage. Spoločnosť s názvom D-ID navrhla pre MyHeritage algoritmy, ktoré digitálne obnovujú pohyb ľudských tvárí. Softvér aplikuje pohyby na fotografie a upravuje výrazy tváre tak, aby sa pohybovali tak, ako sa zvyčajne pohybujú ľudské tváre, podľa webovej stránky MyHeritage.
Hlboká nostalgia ukazuje, že hlboko falošná technológia sa stáva dostupnejšou, povedal Lior Shamir, profesor informatiky na Kansas State University v e-mailovom rozhovore. Postupuje rýchlo a odstraňuje aj tie najmenšie rozdiely medzi falošným a skutočným videom a zvukom.
„Došlo tiež k výraznému pokroku smerom k hlbokému falošnému obsahu v reálnom čase, čo znamená, že presvedčivé hlboké falošné videá sa generujú v čase videokomunikácie,“povedal Shamir."Napríklad, môžete mať stretnutie Zoom s určitou osobou a zároveň vidieť a počuť hlas úplne inej osoby."
Narastá aj počet jazykových falzifikátov, povedal v e-mailovom rozhovore Jason Corso, riaditeľ Stevensovho inštitútu pre umelú inteligenciu na Stevens Institute of Technology. "Generovanie celých odsekov hlbokého falošného textu pre konkrétnu agendu je dosť ťažké, ale moderný pokrok v spracovaní hlbokého prirodzeného jazyka to umožňuje," dodal.
Ako odhaliť hlboký falzifikát
Zatiaľ čo technológia detekcie hĺbkových falošných správ je stále v štádiu zrodu, existuje niekoľko spôsobov, ako si ju môžete všimnúť, povedal Corso a začal ústami.
„Variabilita vo vzhľade vnútra úst, keď niekto hovorí, je veľmi vysoká, takže je ťažké presvedčivo animovať,“vysvetlil Corso. „Dá sa to, ale je to ťažšie ako zvyšok hlavy. Všimnite si, ako videá Deep Nostalgia nepreukazujú schopnosť fotografie povedať „Milujem ťa“alebo inú frázu počas hlbokej falošnej tvorby. To by si vyžadovalo otváranie a zatváranie úst, čo je veľmi ťažké pre hlboké falošné generovanie."
Ghosting je ďalší darček, dodal Corso. Ak vidíte rozmazané okraje hlavy, je to dôsledok "rýchleho pohybu alebo obmedzeného počtu pixelov dostupných na zdrojovom obrázku. Ucho môže na chvíľu čiastočne zmiznúť alebo vlasy môžu byť rozmazané tam, kde by ste to nečakali." povedal.
Môžete tiež dávať pozor na farebné variácie, keď sa pokúšate rozpoznať hlboké falošné video, ako je ostrá čiara cez tvár s tmavšími farbami na jednej strane a svetlejšími na druhej.
„Počítačové algoritmy dokážu často odhaliť tieto vzorce skreslenia,“povedal Shamir. "Ale hlboko falošné algoritmy rýchlo napredujú. Je nevyhnutné, že sa budú vyžadovať prísne zákony na ochranu pred hlbokými falošnými a škodami, ktoré môžu ľahko spôsobiť."