Ernst & Young využíva technológiu deepfake

NEW YORK / LONDÝN – Partneri jednej z najväčších poradenských a audítorských spoločností Ernst & Young (EY) sa rozhodli využiť deepfakes zamestnancov na komunikáciu s klientmi v online formáte.

Spoločnosti sa teda pokúšajú diverzifikovať pracovnú korešpondenciu a telefonáty, ktoré sa počas pandémie stali príliš bežnými. S pomocou britskej technológie už niekoľko tímov získalo virtuálnych avatarov, ale odborníci varujú, že to môže vyzerať strašidelne.

Wired upozornil na vzhľad deepfake verzií zamestnancov v prezentáciách pre zákazníkov EY. V bežnej korešpondencii sa začali používať nové technológie: namiesto obyčajného textu a grafiky je obsah listu prezentovaný plnohodnotnými virtuálnymi kópiami.

EY sa rozhodla obrátiť sa na vývoj britskej spoločnosti Synthesia vzhľadom na skutočnosť, že tradičné spôsoby posilnenia obchodných vzťahov – golf, reštaurácie a osobné stretnutia – boli počas pandémie koronavírusu nemožné. Deepfakes tiež uľahčilo prekročenie jazykovej bariéry: vstavaný prekladový systém pomáha virtuálnej kópii zamestnancov komunikovať s klientmi z iných krajín v ich jazyku.

“Používame to ako našu funkciu.” Namiesto odoslania e -mailu s textom „Platí piatkové stretnutie?“ Ma môžete vidieť a počuť. Efekt je ako predvádzať šteniatko na kameru, “povedal Jared Reeder, člen tímu kreatívnej a technickej podpory partnerov EY.

Zamestnanci Ernst & Young nazývajú svojich kolegov ARI (Artifitial Reality Identity) – osobnosti rozšírenej reality. Prvú ARI vytvoril tím EY v marci na žiadosť klienta. Keď sa to dozvedeli ďalší spoločníci spoločnosti, chceli v sebe tiež použiť virtuálne náprotivky. Táto technológia sa ukázala byť účinná pri revitalizácii známych interakcií so zákazníkmi.

Reeder a jeho kolegovia v súčasnosti pracujú na avataroch pre ďalších osem tímov. Proces vytvárania dvojíc sa ukázal byť jednoduchý: stačilo stáť pred kamerou asi 40 minút a čítať špeciálny text, aby algoritmy Synesthesia spočítali všetko potrebné na získanie plnohodnotného deepfake. Následne bude systém schopný vykresliť napísaný text do plnohodnotnej prezentácie.

Generované videá sú poctivo umiestnené ako syntetické: spoločnosť zdôrazňuje, že deepfake nie sú určené na oklamanie. Spoločnosť EY bola tiež povinná získať povolenie od všetkých ľudí, ktorých chcú kopírovať, a prísne obmedziť prístup k technológii, aby sa zabránilo zneužívaniu. Experimenty medzitým pokračujú, aj keď niektorí odborníci sa domnievajú, že takéto videá môžu vyzerať čudne a strašidelne a tiež odvádzať pozornosť od podstaty rozhovoru a znehodnocovať ľudskú komunikáciu. Vývojári sú však optimistickí.

„Čo môže byť ľudskejšie, ako povedať„ ahoj, dobré ráno “v hlase, v tvári a mojim spôsobom? – Jared Reader si je istý.

Technológia Deepfake je k dispozícii od roku 2014, ale prvýkrát sa o nej hovorilo v roku 2017, keď internet zaplavili videá s tvárami celebrít. Kyberzločinci čoskoro začali používať deepfake: napríklad v Číne podviedli daňové úrady za 76 miliónov dolárov a v Rusku sa podvodníci rozhodli využiť tvár známeho podnikateľa na oklamanie používateľov.