Да ли су „дубоке лажи“ нова граница дигиталног криминала?

Технологија специјалних ефеката забележила је прави процват у последњих неколико деценија, а ЦГИ се пребацио из рудиментарно сировог и примитивног у готово неразлучив од стварности. Сада, док стварање верисимилитудинских слика постаје све уобичајеније, политички стручњаци и стручњаци за кривично право предвиђају панику око такозване „дубоке лажне“ технологије, која има потенцијал да додатно закомпликује текућу међународну расправу о „лажним вестима“. Али шта је тачно „дубока лажница“ и колику ће претњу представљати ова технологија у будућности?





Дубоко лажна (понекад стилизована као „деепфаке“) технологија односи се на синтетизоване и / или суперпониране слике и / или видео записе створене вештачком интелигенцијом користећи постојеће слике и видео записе. Користећи машинско учење, ова технологија би теоретски могла створити уверљиве снимке особе која изводи радњу која се у стварном животу никада није догодила.

Овен Виллиамс, професионални софтверски инжењер и уметник визуелних ефеката, понудио је једноставно објашњење.



„То је начин да се помоћу аутоматизованог софтверског система замени лице особе у видео запису другим лицем које је много аутоматизовније и уверљивије него што је то било могуће са претходном технологијом“, рекао је Виллиамс Окиген.цом .



Виллиамс је приметио да су популарни филмови попут 'Јурассиц Парк' и 'Бладе Руннер: Тхе Финал Цут' користили рачунарски софтвер за одређене сцене на начине који су могли бити претеча дубоких лажних података: 'У филмској индустрији ово је заиста уобичајено. Рецимо да имате лик који треба да изведе штос и да бисте више волели да им се лице види. Класично заобилазно решење било би да их видите само позади или би им коса била на лицу, па не бисте могли да кажете да је реч о двојнику. Али постоји прилично умешана историја филмских стваралаца који користе рачунаре да би глумачко лице поставили преко каскадерског двојника. '



„Некада је то био врло ручан поступак“, наставио је Виллиамс. „Сада, са дубоком лажном технологијом, рачунару храните две ствари: прво видео који ћете заменити, а затим гомилу уноса лица којим ћете заменити. Морате добити довољно слика особе која изражава различите изразе лица и из различитих углова. Стварате библиотеку како лице ове особе може да изгледа у различитим ситуацијама, а затим рачунар пролази и гледа видео. Не треба му ни тачно подударање. Може да мљацка и преобрази оно што има у библиотеци да одговара ономе што треба. Оно што је некада захтевало десетине уметника стотинама сати да покушају да изведу заиста компликован ефекат, сада је само притискање дугмета. '

Једна од аспеката ове технологије која забрињава људе је да особа не мора нужно да добровољно преда своје лице како би се овај поступак извршио, с обзиром на то колико слика постоји на мрежи већине људи - посебно познатих личности и политичких личности.



„Има довољно слика било које познате личности под довољним углом да можете да направите ту библиотеку [без пристанка]“, рекао је Виллиамс. „За то је потребан одређени рад, али за било коју маргинално популарну личност те ствари ће постојати. Мислим да је мање вероватно да би то било могуће за обичну особу. '

Први дубоки лажни видео снимци појавили су се на Реддит форумима крајем 2017. године, према Вариети . Корисник је тврдио да је користио свој рачунар за стварање врло реалистичних порнографских видео записа различитих познатих личности које су се бавиле сексуалним активностима које се у стварности никада нису догодиле. Корисник је тврдио да је свом рачунару хранио хиљаде фотографија звезда, са којих је АИ могао да дочара изразе лица и покрете. Апликација коју су користили дубоки лажни креатори и која се дели на Реддиту на крају је преузета преко 100.000 пута. (Реддит ће на крају наставити са забраном такве врсте садржаја, рекавши да крши њихову политику о „нехотичној порнографији“. према Тхе Верге .)

Вилијамс сумња у реализам који овај медиј тренутно може да постигне.

„Ако сте икада заиста гледали један од ових дубоких лажних ... тамо постоји одређена доза“, рекао је Виллиамс. 'Нису углачани. Вероватно ће то бити све боље, поготово зато што је Холивуд заинтересован да ово направи аутоматизовано, а не да плаћа скупе уметнике. '

Слично томе, Виллиамс је претпоставио да упркос томе паника око дубоке лажне порнографије , променљиви културни ставови око природе ствари као што су освета порнографије или процуриле голе слике значе да ће вероватно људи који стварају ову врсту медија бити осуђени и неће бити прослављени, чак ни у индустрији забаве за одрасле.

„То никада неће бити маинстреам“, теоретизовао је Виллиамс. 'После ' Тхе Фаппенинг 'ствар се догодила на Реддиту, људи су могли да промене разговор и кажу:' Ово није скандал, то је сексуални злочин. ' Тако да једноставно не видим да ово постаје толико скандал колико људи мисле да хоће. Људи такође могу прилично лако пронаћи оригиналну порнографију од које је створен дубоки лажњак, што значи да је прилично лако разоткрити. '

Али то не изазива само забринутост, јер би се могло користити за стварање лажних порнића славних. Људи су такође забринути због политичких посљедица.

Политички стручњаци почели су да пишу о ширењу дубоких лажних ланаца 2018. године. Чланак Гуардиана од новембра те године приметио је вирусно ширење видео записа који наводно приказује председника Доналда Трампа који подстиче државу Белгију да се повуче из Париског климатског споразума. Ово је катализовало ширу расправу о потенцијалу различитих влада да користе ову технологију у масовним кампањама дезинформација, разговор који је већ започет захваљујући текућој истрази о умешаности Русије у председничке изборе у Сједињеним Државама 2016. године.

Паника око дубоких фалсификата чак је инспирисала уредништво Блоомберг Медиа Гроуп да изнесе о томе строго срочено мишљење.

„Видео докази су постали стуб кривично-правног система ... управо зато што се филм чини тако поузданим записом нечијег говора или делања. Дубоке лажнице могле би извести сумњу на такве доказе, ' они су написали у јуну 2018. „Превасходни изазов биће идентификовање и прозивање ових фалсификата - ако је то могуће“.

Вилијамс се сложио да природа дубоких фалсификата угрожава наше појмове „стварности“ у вези са видео доказима, али приметио је да ово законско блато није јединствено за наш савремени дигитални пејзаж.

„То се некако своди на то да људи имају тај видео једнак истини, што никада није био случај. Знали смо то од Роднеи Кинг-а надаље. Или, размислите Ериц Гарнер : Људи су мислили да је [полицајац који га је убио] невин, без обзира на то какав видео снимак инцидента предвиђа. Мени се [многи страхови око дубоких фалсификата] чине помало неоснованим. '

Виллиамс је набројао неколико других инцидената који нису укључивали дубоку лажну технологију, што је показало начине на које се видео смело манипулише како би се искривило јавно мњење о нечему, попут Контроверзно уклањање АЦОРН-а Јамеса О'Кеефеа и недавни скандал који укључује докторски снимак који наводно приказује репортера ЦНН-а Јима Акосте како напада запосленог у Белој кући .

Крајњи закључак Виллиамса био је да је хистерија око дубоких лажних донекле пренапухана.

„Оно што видим да се дешава ће функционисати у оба правца. Ако видео изађе и он је стваран, људи ће тврдити да је лажан. Ако изађе видео и лажан је, људи ће тврдити да је стваран. Сваки случај претпоставља одређену количину истине која је додељена видеу [самом]. Тешко је знати у ком правцу ће све ово ићи Тхе Пее Тапе заправо изашао, на пример, тачно знате шта би се догодило: Половина људи би рекла: 'Ово су бикови - т, то је неки глумац!' а пола људи би рекло: 'Ето! То је прави!' Дакле, ништа се заиста не би променило. То се обично дешава са новом технологијом: Ствари се не мењају толико колико људи мисле. '

[Фотографија: САУЛ ЛОЕБ / АФП / Гетти Имагес]

Категорија
Рецоммендед
Популар Постс