В последние годы немало внимания было уделено опасности «фейковых новостей» и дезинформации. По версии словаря Dictionary.com, словом 2018 года стало «misinformation», то есть ложная информация. Впереди мир ожидает новый вызов ‒ так называемые «дипфейки», которые заставят людей буквально сомневаться во всем, что они видят.
11 декабря этого года в российском городе Ярославль открылся форум «ПроэкториЯ». Телеканал «Россия-24» показал кадры с роботом Борисом на сцене, умеющим ходить и говорить.
Автор репортажа констатировал, что робота «уже научили» танцевать, причем «достаточно неплохо». В конце концов Борис оказался простым человеком, переодетым в костюм.
Когда в интернете начали насмехаться над «подставным» роботом, телеканал «Россия-24» удалил сюжет с YouTube-канала, а затем объяснил, что это просто недоразумение, произошедшее из-за «художественного оборота».
«Я был точно уверен, что по аналогии с дедом морозом все вполне точно узнают аниматора в костюме», ‒ пояснил автор сюжета.
Независимо от того, какими именно были мотивы корреспондентов, догадаться, что современный робот ‒ переодетый человек, бдительному зрителю оказалось не так сложно.
Но через несколько лет на любые подобные сомнения придется потратить гораздо больше времени.
Слово 2018 года
Англоязычный онлайн-словарь Dictionary.com определил словом 2018 года «ложную информацию» (misinformation).
«Безудержное распространение неправдивой информации ставит новые вызовы для ориентирования в жизни в 2018 году», ‒ говорится на сайте словаря.
Ложную информацию при этом не следует путать с дезинформацией, «фейковыми новостями» или, например, «дипфейками».
Но в чем разница? В намерениях распространения.
Ложная информация
Ложная информация ‒ та, в которую верят люди, ее распространяющие.
«Это ложные сведения, распространяемые независимо от того, есть ли намерение ввести в заблуждение», ‒ уточняет словарь.
Дезинформация
Дезинформация ‒ это «намеренное введение в заблуждение или предвзятая информация, манипулирование рассказом или фактами, пропаганда», ‒ объясняет словарь.
Если политик стратегически распространяет информацию, не являющуюся правдивой, и политик об этом хорошо знает, в виде публикаций в СМИ, фотографий и т.п., это дезинформация.
Но когда человек видит эту дезинформацию и верит ей, еще и начинает распространять ‒ это становится ложной информацией, поясняет издание The Washington Post.
Следующий уровень ‒ «дипфейк»
Если, казалось бы, словом «дезинформация» удивить кого-то в 2018 году сложно, и даже если люди будут доверять только потому, что увидели собственными глазами ‒ здесь новости тоже неутешительны. Ведь неизбежное появление так называемых «дипфейков» заставит сомневаться буквально во всем, что человек видит на экранах.
Если, например, человек на видео увидит, как президент какого-либо государства выступает с призывом к ядерной войне ‒ при этом он будет выглядеть вполне реалистично ‒ в это, вероятно, поверят.
«Дипфейк» ‒ чрезвычайно реалистичные манипуляции аудио- и видеоматериалами. Слово состоит из двух английских слов: «deep» ‒ глубокий и «fake» ‒ фальшивка».
Иными словами, «дипфейк» ‒ управляемый искусственным интеллектом механизм замещения лица человека на видео лицом другого человека путем машинного обучения ‒ такое определение предлагает один из онлайн-словарей.
Пример 1: Обама называет Трампа «засранцем»
В 2018 году американский режиссер Джордан Пил и издание BuzzFeed опубликовали якобы видеообращение бывшего президента США Барака Обамы, в котором он называет Дональда Трампа «засранцем».
На самом деле Обама ничего такого не говорил. Ролик создали с помощью программы Fakeapp и графического редактора Adobe After Effects. Журналисты и режиссер намеревались показать, какой вид в будущем будут иметь «фейковые» новости.
Пример 2: Искусственный телеведущий
А вот, например, государственное информационное агентство Китая «Синьхуа» недавно представило нового, цифрового члена своей редакции ‒ телеведущего, работающего на основе искусственного интеллекта.
Он не является примером «дипфейка», но демонстрирует, как реалистично может выглядеть «цифровой» человек, которому «вложили слова в уста».
«Я буду работать без устали и продолжать информировать вас о последних событиях ‒ тексты загружаются в систему, руководящую мной, непрерывно», ‒ говорит виртуальный журналист.
Обозреватель издания Futurism, правда, замечает: «Пока англоязычная версия телеведущего оставляет желать лучшего... этот конкретный пример никого не сможет обмануть».
Но это ‒ только начало. Со временем такие технологии могут позволить любому создавать видеоролики о реальных людях, где они будут говорить то, чего никогда не говорили, сообщало ранее агентство Associated Press.
Этот высокотехнологичный способ «вкладывать слова в чьи-то уста» станет самым современным оружием в условиях информационных войн, убеждены эксперты.
Есть и плюсы
С одной стороны «дипфейки» могут быть полезным инструментом, например, для обучения: какая-то историческая фигура может рассказывать детям о своей жизни. Но на политической арене использование «дипфейков» будет действительно «пугающим» явлением, говорится в статье Foreign Affairs.
Ведь для чего угодно можно будет привести «реальные доказательства»: будь то выступление мирового лидера, международной организации, акты насилия и тому подобное.
Кровоток соцсетей
Социальные сети, как и с «фейковыми новостями», станут плодородной почвой для циркуляции таких «дипфейков», что будет иметь потенциально опасные последствия для политики. «Попытка России повлиять на американские президентские выборы в 2016 году из-за распространения противоречивых и политически зажигательных сообщений в Facebook и Twitter уже продемонстрировала, как легко можно ввести дезинформацию в кровоток социальных сетей. «Дипфейки» завтрашнего дня будут более яркими и реалистичными, а значит, ими будут больше делиться, чем «фейковыми новостями 2016 года», ‒ замечает автор.
«Дипфейки» смогут использовать и негосударственные игроки, среди них и террористические группировки, целью которых может быть, например, провокация.
И еще одна проблема
Еще одна проблема в том, что люди со временем будут знать о существовании «дипфейков», и чиновникам, совершившим какое-то правонарушение, будет легко сослаться на то, что это очередная подделка. Более того, люди перестанут верить настоящим записям и будут меньше доверять новостным агентствам.
Самим журналистам тоже будет сложнее ориентироваться в том, что является настоящим материалом, а что «дипфейком», замечает автор.
И хотя технологии для создания «дипфейков» развиваются достаточно быстро, также появляются и ресурсы, имеющие целью их выявлять.
«Но, хотя «дипфейки» и опасны, они не обязательно будут иметь катастрофические последствия. Улучшится система их выявления, прокуроры и истцы иногда будут получать юридические победы против создателей вредоносных подделок, а основные платформы соцсетей постепенно станут лучше в выявлении и удалении мошеннического содержания», ‒ отмечает автор.
FACEBOOK КОММЕНТАРИИ: