Ernst & Young využíva technológiu deepfake
NEW YORK / LONDÝN – Partneri jednej z najväčších poradenských a audítorských spoločností Ernst & Young (EY) sa rozhodli využiť deepfakes zamestnancov na komunikáciu s klientmi v online formáte.
Spoločnosti sa teda pokúšajú diverzifikovať pracovnú korešpondenciu a telefonáty, ktoré sa počas pandémie stali príliš bežnými. S pomocou britskej technológie už niekoľko tímov získalo virtuálnych avatarov, ale odborníci varujú, že to môže vyzerať strašidelne.
Wired upozornil na vzhľad deepfake verzií zamestnancov v prezentáciách pre zákazníkov EY. V bežnej korešpondencii sa začali používať nové technológie: namiesto obyčajného textu a grafiky je obsah listu prezentovaný plnohodnotnými virtuálnymi kópiami.
EY sa rozhodla obrátiť sa na vývoj britskej spoločnosti Synthesia vzhľadom na skutočnosť, že tradičné spôsoby posilnenia obchodných vzťahov – golf, reštaurácie a osobné stretnutia – boli počas pandémie koronavírusu nemožné. Deepfakes tiež uľahčilo prekročenie jazykovej bariéry: vstavaný prekladový systém pomáha virtuálnej kópii zamestnancov komunikovať s klientmi z iných krajín v ich jazyku.
“Používame to ako našu funkciu.” Namiesto odoslania e -mailu s textom „Platí piatkové stretnutie?“ Ma môžete vidieť a počuť. Efekt je ako predvádzať šteniatko na kameru, “povedal Jared Reeder, člen tímu kreatívnej a technickej podpory partnerov EY.
Zamestnanci Ernst & Young nazývajú svojich kolegov ARI (Artifitial Reality Identity) – osobnosti rozšírenej reality. Prvú ARI vytvoril tím EY v marci na žiadosť klienta. Keď sa to dozvedeli ďalší spoločníci spoločnosti, chceli v sebe tiež použiť virtuálne náprotivky. Táto technológia sa ukázala byť účinná pri revitalizácii známych interakcií so zákazníkmi.
Reeder a jeho kolegovia v súčasnosti pracujú na avataroch pre ďalších osem tímov. Proces vytvárania dvojíc sa ukázal byť jednoduchý: stačilo stáť pred kamerou asi 40 minút a čítať špeciálny text, aby algoritmy Synesthesia spočítali všetko potrebné na získanie plnohodnotného deepfake. Následne bude systém schopný vykresliť napísaný text do plnohodnotnej prezentácie.
Generované videá sú poctivo umiestnené ako syntetické: spoločnosť zdôrazňuje, že deepfake nie sú určené na oklamanie. Spoločnosť EY bola tiež povinná získať povolenie od všetkých ľudí, ktorých chcú kopírovať, a prísne obmedziť prístup k technológii, aby sa zabránilo zneužívaniu. Experimenty medzitým pokračujú, aj keď niektorí odborníci sa domnievajú, že takéto videá môžu vyzerať čudne a strašidelne a tiež odvádzať pozornosť od podstaty rozhovoru a znehodnocovať ľudskú komunikáciu. Vývojári sú však optimistickí.
„Čo môže byť ľudskejšie, ako povedať„ ahoj, dobré ráno “v hlase, v tvári a mojim spôsobom? – Jared Reader si je istý.
Technológia Deepfake je k dispozícii od roku 2014, ale prvýkrát sa o nej hovorilo v roku 2017, keď internet zaplavili videá s tvárami celebrít. Kyberzločinci čoskoro začali používať deepfake: napríklad v Číne podviedli daňové úrady za 76 miliónov dolárov a v Rusku sa podvodníci rozhodli využiť tvár známeho podnikateľa na oklamanie používateľov.