Как deepfakes повлияют на общественно-политическую жизнь общества » Адыгея - Новости, события, комментарии, факты

» » » Как deepfakes повлияют на общественно-политическую жизнь общества
Как deepfakes повлияют на общественно-политическую жизнь общества 20:48 Понедельник 0 941
7-01-2019, 20:48

Как deepfakes повлияют на общественно-политическую жизнь общества


Как deepfakes повлияют на общественно-политическую жизнь общества
Эксперты в сфере искусственного интеллекта бьют тревогу — по их мнению, в будущем стоит опасаться не фейковых новостей, а фейковых видео, которые создают у зрителей эффект присутствия, а потому зачастую воспринимаются как непреложная истина. В руках злоумышленников уже существуют необходимые инструменты, чтобы делать порно со звездами или интервью с политиками, которых на самом деле никогда не было.

Нейросети сделали все хуже

Deepfakes — это термин, который на самом деле является никнеймом. Именно так звали пользователя форума Reddit, догадавшегося использовать нейросеть для замены лиц порноактрис на лица знаменитостей. Он породил волну подражателей и заставил всех задуматься о границах реального и виртуального.

Реклама

Первый громкий скандал, произошедший по вине Deepfakes, случился с актрисой Галь Гадот, которая сыграла главную роль в фильме «Чудо-женщина». На Reddit был размещен порноролик, в котором модель с лицом Гадот занималась сексом. Скандал был настолько большим, что администрация Reddit через некоторое время, вопреки своим правилам, заблокировала Deepfakes.

Кроме того, в 2018 году бельгийской политической партией Socialistische Partij Anders с целью привлечения внимания к экологическим проблемам было размещено фейковое видео с Дональдом Трампом, в котором политик негативно высказался о Парижском климатическом соглашении.

Этот «экологический креатив» был принят большинством смотрящих за чистую монету, и в интернете на американского президента посыпались настоящие проклятия от бельгийских «зеленых». В результате в Бельгии разразился большой политический скандал.

Процесс создания искусственных изображений, маскирующихся под реальные, далеко не нов. Термину «фотожаба», обозначающего совмещение различных изображений в реалистичное забавное или скандальное фото, уже не один десяток лет. Более того, современная цифровая фотография, особенно в смартфонах, уже давно перестала быть технологией двухмерного отображения реальности и превратилась в процесс создания изображения с помощью фотокамеры и софта.

Интернет-пользователи уже успели выработать в себе скептический рефлект относительно экстравагантных фотографий, особенно с участием звезд, и уже не воспринимают такие изображения с безоговорочным доверием.

Во многом эта ситуация повторяется и с видеороликами, но уже на новом, более высоком технологическом уровне. Сам процесс послойного совмещения реального и виртуального видео называется композитингом, и это хорошо известная профессионалам техника. В современном контексте это почти всегда связано с добавлением в отснятую картинку компьютерной графики. Данное направление видеопродакшена широко распространено и используется для создания визуальных эффектов в кино и телевидении. Главная его задача — заставить зрителя поверить в то, что все, что он видит на экране, является частью единой, отснятой картинки.

Что же изменилось за последние годы, и почему Deepfakes привлек к себе такое внимание? Прежде всего, это связано с появлением инструментов и компьютерных мощностей, которые сделали технологию композитинга доступной для широкого круга энтузиастов. Появились готовые программные библиотеки и рендер-фермы, которые могут использовать талантливые одиночки для создания спецэффектов.

В 2016-2018 годах обработка видео вышла на новый уровень — нейронные сети, начав свое победное шествие по миру, затронули и мир видеоиндустрии. Их научились использовать при создании текстур, трекинге лиц, маскировании.

Именно возможность быстрого и малозатратного создания реалистичных масок лиц стало ключевым фактором популярности Deepfakes. Особенность человеческого восприятия такова, что мы узнаем человека в первую очередь по его лицу, и относительно небольшие программные манипуляции с картинкой дают очень мощный и убедительный эффект.

Фейки разобщают общество

Угроза настолько реальна, что Агентство перспективных исследовательских проектов в области обороны США (DARPA) профинансировало проект Media Forensics, направленный на автоматический поиск фейковых видео, вводящих в заблуждение общество и прессу.

«Мы видим тот факт, что стало вполне реально имитировать голос и изображение Обамы или видео Трампа. Очевидно, что будет большой финансовый интерес к используемой технологии», — говорит Тим Хванг, руководитель центра по изучению этики управления искусственным интеллектом в Гарвардском Центре Беркмана-Кляйна и Медиа-лаборатории в Массачусетском Технологическом Университетете.

Опасения американских экспертов связаны в первую очередь с президентскими выборами 2020 года и с тем хаосом, который могут принести в американское общество фальшивые ролики с кандидатами в президенты.

Технология композитинга может стать мощным оружием для создания информационных фейков и компрометации новостного контента или публичных людей. В эпоху соцсетей убедительно сделанное фейк-видео «работает» без его верификации, даже когда доказано, что это фейк. Такая ситуация скорее всего продлится еще несколько лет, до тех пор пока люди не привыкнут «не верить своим глазам» в буквальном смысле.

Даниэль Цитрон, профессор права в Университете штата Мэриленд, заинтересовавшаяся этическим и правовыми вопросами использования фейковых видео, говорит о том, что первоначально она видела в этом только проблему, связанную с унижением женщин: «Но, как только я начала изучать тему глубже, я поняла, что если эта технология распространятся за пределы троллей из Reddit, она станет по-настоящему опасной. В 2015 году в Балтиморе, после смерти чернокожего Фредди Грея, погибшего по вине полицейских, появление такого фейкового видео, где, например, начальник полиции говорит что-то расистское, просто взорвало бы город».

По мнению Цитрон и ее коллеги Бобби Чесни, подобное использование новых технологий несет не только угрозу частной жизни и национальной безопасности многих стран.

Оба исследователя считают, что Deepfakes и ее аналоги могут катастрофически разрушить доверие между различными фракциями общества в и без того поляризованном современном политическом климате.

Угроза может выходить за рамки злонамеренных политических хакеров, пытающихся подорвать существующие политические институты с помощью Deepfake. Скучающие интернет-пользователи, ищущие развлечения, могут вызвать еще больше проблем, если технология станет такой же общедоступной, как современные приложения, генерирующие мемы. Правительственные структуры, отвечающие за кибербезопасность, могут оказаться беспомощными перед лицом интернет-толпы, заполняющей социальные сети фейковыми видео.

Лекарства пока нет

Есть ли способ отличить искусственно созданное видео от настоящего? Опытные профессионалы увидят недостаточно хорошо «вклеенные» маски, «спилы», «канты», остатки хромакея, серые линии по краям маски. Для создания качественного композитинга важно правильное сведение реальных и искусственных слоев по цвету и свету, важно также чтобы «шум», создаваемый камерой, совпадал с «шумом» вклейки. То есть, несмотря на удешевление процесса, от создателей видеофейков требуется определенный профессионализм.

На текущий момент не существует специальных инструментов для определения видеофейков, а эксперты отличают их по целому комплексу признаков.

Проблема заключается в том, что с помощью обучаемых нейросетей со временем можно будет создавать сверхубедительные изображения, способные поставить в тупик даже профессионального видеомонтажера.

Более того, пока большая часть таких фальшивых видео создается энтузиастами-троллями. Что будет, когда созданием видеофейков «на заказ» займутся настоящие профессионалы со студийным оборудованием и соответствующим опытом работы, сказать сложно. Проводить экспертизу каждого видео, попадаемого в медиаполе, невозможно, и очевидно, что еще несколько лет, пока не потеряется острота и эпатажность этого приема, скандальные фейк-видео будут вызывать широкий общественный резонанс.

Источник: Газета.РУ


Оставить комментарий

    • bowtiesmilelaughingblushsmileyrelaxedsmirk
      heart_eyeskissing_heartkissing_closed_eyesflushedrelievedsatisfiedgrin
      winkstuck_out_tongue_winking_eyestuck_out_tongue_closed_eyesgrinningkissingstuck_out_tonguesleeping
      worriedfrowninganguishedopen_mouthgrimacingconfusedhushed
      expressionlessunamusedsweat_smilesweatdisappointed_relievedwearypensive
      disappointedconfoundedfearfulcold_sweatperseverecrysob
      joyastonishedscreamtired_faceangryragetriumph
      sleepyyummasksunglassesdizzy_faceimpsmiling_imp
      neutral_faceno_mouthinnocent
Кликните на изображение чтобы обновить код, если он неразборчив
США, Британия и Австралия заключили антикитайский военный союз 02:48 Вторник 0 277 США, Британия и Австралия заключили антикитайский военный союз Выстраиваемая Америкой сеть коалиций в Азиатско-Тихоокеанском регионе (АТР), направленных на агрессивное военное сдерживание Китая, приросла очередным альянсом. Президент США Джо Байден совместно с
Участники первого Российско-Сербского молодежного форума приступили к… 09:40 Суббота 0 594 Участники первого Российско-Сербского молодежного форума приступили к… Международный форум открылся в краевом центре накануне. Его итогом станет презентация лучших инициатив, разработанных участниками — все они будут рекомендованы к реализации в регионах России и
Создан краевой реестр земельных участков для многодетных семей 09:40 Суббота 0 442 Создан краевой реестр земельных участков для многодетных семей Реестр находится на сайте департамента имущественных отношений Краснодарского края. В нем собрана актуальная информация о наличии земельных участков для многодетных семей. Чтобы облегчить кубанцам