Tazabek — Мир наводнен дипфейками — видео, аудио или изображениями, на которых люди делают или говорят то, чего они не делали, или находятся там, где они не были, пишет издание Bloomberg.
Большинство дипфейков — это откровенные видео и изображения, созданные путем сопоставления лица знаменитости с телом другого человека.
Некоторые из них используются для обмана потребителей или нанесения ущерба репутации политиков и других людей в глазах общественности. Достижения в области искусственного интеллекта означают, что требуется всего несколько нажатий на клавиатуру, чтобы их вызвать. Встревоженные правительства ищут способы дать отпор.
1. Что делается для борьбы с дипфейками?
8 февраля Федеральная комиссия по связи США запретила компаниям использовать голоса, сгенерированные искусственным интеллектом, в звонках роботов. Запрет был введен через два дня после того, как Федеральная комиссия по связи издала приказ о прекращении противодействия компании, ответственной за аудиоподделку президента Джо Байдена . Жители Нью-Гэмпшира перед президентскими праймериз штата получили звонок от робота , который звучал так, будто Байден призывал их остаться дома и «приберечь свой голос для ноябрьских выборов». Голос даже произнес одну из фирменных фраз Байдена: «Какая чушь». В настоящее время в США нет федерального закона, запрещающего дипфейки. В некоторых штатах приняты законы, касающиеся дипфейковой порнографии, но их применение по всей стране непоследовательно, что затрудняет привлечение жертв к ответственности создателей. Предлагаемый Закон Европейского Союза об искусственном интеллекте потребует от платформ маркировать дипфейки как таковые.
2. Где еще в новостях появлялись дипфейки?
В конце января в социальных сетях широко распространялись откровенные фейковые изображения поп-звезды Тейлор Свифт , вызвав гнев легионов ее поклонников. Инцидент вызвал обеспокоенность в Белом доме. Ранее в том же месяце Сочитль Гомес, 17-летняя актриса из сериала Marvel, рассказала о том, что обнаружила в социальных сетях откровенно сексуальные фейки с ее лицом и не смогла удалить материал, сообщает NBC News.
3. Как создаются дипфейковые видео?
Они часто создаются с использованием алгоритма искусственного интеллекта, который обучен распознавать закономерности в реальных видеозаписях конкретного человека — процесс, известный как глубокое обучение. Тогда можно будет заменить элемент одного видео, например лицо человека, на другой фрагмент контента, при этом он не будет выглядеть как грубый монтаж. Манипуляции наиболее вводят в заблуждение, когда используются с технологией клонирования голоса, которая разбивает аудиоклип, где кто-то говорит, на полусложные фрагменты, которые можно снова собрать в новые слова, которые кажутся произнесенными человеком в исходной записи.
4. Как появилась технология дипфейков?
Первоначально эта технология была прерогативой ученых и исследователей. Однако в 2017 году издание Vice, Motherboard, сообщило, что пользователь Reddit под ником deepfakes разработал алгоритм создания фейковых видео с использованием открытого исходного кода. Reddit забанил пользователя, но практика распространилась. Изначально для создания дипфейков требовалось уже существующее видео, настоящее вокальное исполнение и хорошие навыки монтажа. Сегодняшние генеративные системы искусственного интеллекта позволяют пользователям создавать убедительные изображения и видео на основе простых письменных подсказок. Попросите компьютер создать видеоролик, вставляющий слова в рот кому-нибудь, и он появится. Цифровые подделки становится все труднее обнаружить, поскольку компании, занимающиеся искусственным интеллектом, применяют новые инструменты к огромному объему материалов, доступных в Интернете, от YouTube до библиотек изображений и видео.
5. Каковы еще примеры дипфейков?
Китайские тролли распространили сфабрикованные изображения августовских лесных пожаров на гавайском острове Мауи, чтобы поддержать утверждение о том, что они были вызваны секретным «погодным оружием», которое испытывают США. В мае 2023 года американские акции ненадолго упали после того, как в Интернете распространилось изображение, на котором видно, что Пентагон горит. Эксперты заявили, что фальшивое изображение имеет признаки того, что оно было создано искусственным интеллектом. В феврале того же года появился сфабрикованный аудиоклип, в котором говорилось, что кандидат в президенты Нигерии Атику Абубакар замышляет сфальсифицировать результаты выборов в этом месяце. В 2021 году в социальных сетях появилось минутное видео, на котором президент Украины Владимир Зеленский говорит своим солдатам сложить оружие и сдаться России.
6. Какая здесь опасность?
Есть опасение, что дипфейки в конечном итоге станут настолько убедительными, что будет невозможно отличить настоящее от вымышленного. Представьте себе мошенников, манипулирующих ценами акций, производящих фальшивые видео, на которых руководители компаний выпускают корпоративные новости, или фальсифицированные видео, на которых солдаты совершают военные преступления. Политики, бизнес-лидеры и знаменитости подвергаются особому риску, учитывая, как много их записей доступно. Эта технология делает возможной так называемую порноместь, даже если не существует реальных фотографий или видео в обнаженном виде, при этом жертвами обычно становятся женщины. Если видео становится вирусным в Интернете, его практически невозможно сдержать. Дополнительная проблема заключается в том, что распространение информации о дипфейках облегчит людям, которые действительно засняты на пленку за совершением или высказыванием нежелательных или незаконных вещей, возможность утверждать, что доказательства против них являются фальшивыми. Некоторые люди уже используют дипфейковую защиту в суде.
7. Что еще можно сделать для подавления дипфейков?
Машинное обучение, создающее дипфейки, нелегко обратить вспять и обнаружить их. Но несколько стартапов, таких как Sensity AI из Нидерландов и Sentinel из Эстонии, разрабатывают технологии обнаружения, как и многие крупные технологические компании США. В ноябре 2022 года корпорация Intel выпустила продукт FakeCatcher, который, по ее словам, может обнаруживать фальшивое видео с точностью 96%, наблюдая за тонкими изменениями цвета на коже субъекта, вызванными кровотоком. Компании, включая Microsoft Corp., обязались вставлять цифровые водяные знаки в изображения, созданные с помощью инструментов искусственного интеллекта, чтобы отличать их от поддельных.
За последними событиями следите в Телеграм-канале @tazabek_official
По сообщению сайта Tazabek