Торговые представители используют Deepfake изображения профиля на LinkedIn

Торговые представители используют Deepfake изображения профиля на LinkedIn

Можете ли вы сказать, какое из этих изображений было создано искусственным интеллектом?

Вы когда-нибудь игнорировали, казалось бы, случайного адвоката LinkedIn, и у вас оставалось странное чувство, что что-то в профиле просто кажется… неправильным? Что ж, оказывается, в некоторых случаях те Торговые представители, преследующие вас, на самом деле могут вообще не быть людьми. Да, сгенерировано ИИ дипфейки пришли на LinkedIn, и они хотели бы подключиться.

Это согласно недавнему исследованию Рене ДиРеста из Стэнфордской интернет-обсерватории, подробно описанному в недавнем NPR. отчет. ДиРеста, сделавшая себе имя плетущийся через потоки российского дезинформационного контента после выборов 2016 года, сказала, что она узнала о кажущемся феномене фальшивых изображений профилей LinkedIn, созданных искусственным интеллектом, после того, как одна особенно странная учетная запись попыталась с ней связаться. Пользователь, который, как сообщается, пытался предложить ДиРесте какое-то неважное программное обеспечение, использовал изображение со странными несоответствиями, которые ей выделялись. как то странно для корпоративного фото. В частности, ДиРеста говорит, что заметила, что глаза фигур идеально выровнены посередине изображения, что является контрольным признаком изображений, созданных искусственным интеллектом. Всегда смотрите в глаза, товарищи люди.

«Это лицо показалось мне фальшивым», — сказал ДиРеста NPR.

Оттуда ДиРеста и ее коллега из Стэнфорда Джош Гольдштейн провели расследование, в ходе которого было обнаружено более 1000 учетных записей LinkedIn с использованием изображений, которые, по их словам, были созданы компьютером. Хотя большая часть публичных дискуссий о дипфейках предупреждала об опасном потенциале технологии для политической дезинформации, ДиРеста сказал, что изображения в данном случае кажутся в подавляющем большинстве случаев предназначенными для того, чтобы действовать больше как лакеи продаж и мошенничества. Сообщается, что компании используют поддельные изображения для игры в систему LinkedIn, создавая альтернативные учетные записи для отправки продаж. питчи, чтобы избежать превышения ограничений LinkedIn на количество сообщений, отмечает NPR.

«Это не история о ложной или дезинформации, а скорее пересечение довольно обыденного делового варианта использования технологии ИИ и вытекающие из этого вопросы этики и ожиданий», — написал ДиРеста в Твиттере. «Каковы наши предположения, когда мы сталкиваемся с другими в социальных сетях? Какие действия пересекают черту манипуляции?»

LinkedIn не сразу ответила на запрос Gizmodo о комментариях, но сообщила NPR, что расследовала и удалила учетные записи, которые нарушали его политику в отношении использования поддельных изображений.

«Наша политика ясно дает понять, что каждый профиль LinkedIn должен представлять реального человека», — сказал NPR представитель LinkedIn. «Мы постоянно обновляем нашу техническую защиту, чтобы лучше выявлять поддельные профили и удалять их из нашего сообщества, как мы сделали в этом случае».

Создатели дипфейков: где дезинформационный адский пейзаж, который нам обещали?

Эксперты по дезинформации и политические комментаторы предупрежден тип дипфейка антиутопия годами, но реальные результаты, по крайней мере, на данный момент, были менее впечатляющими. В прошлом году Интернет был ненадолго восхищён этим фальшивым видео из TikTok. с участием кто-то, притворяющийся Томом Крузом, хотя многие пользователи сразу смогли заметить нечеловечество этого. Этот и другие популярные дипфейки (такие как Вот этот предположительно с Джимом Кэри в главной роли Сияние, или Вот этот изображающий офис, полный клонов Майкла Скотта) имеют явно сатирический и относительно безобидный контент, который не совсем звучитОпасность для демократии” тревога.

Однако другие недавние дела пытались углубиться в политическую трясину. Предыдущий ролики, например, продемонстрировали, как создатели могли манипулировать видео с бывшим президентом Бараком Обамой, чтобы произносить фразы, которые он на самом деле никогда не произносил. Затем, в начале этого месяца, подделка видео делает вид, что показывает президента Украины Владимира Зеленского капитуляция распространилась через социальные сети. Опять же, стоит отметить, что это выглядело как дерьмо. Посмотреть на себя.

Дипфейки, даже с политической направленностью, определенно здесь, но опасения общества по поводу замедления роста изображений еще не оправдались, и очевидный облом заставляет некоторых комментаторов после выборов в США задаваться вопросом: «Где дипфейки на этих президентских выборах?

Люди все хуже распознают дипфейковые изображения

Тем не менее, есть веская причина верить, что все может измениться… в конце концов. Недавнее исследование опубликовано в Proceedings of the National Academy of Sciences было обнаружено, что сгенерированные компьютером (или «синтезированные») лица на самом деле считаются более достоверными, чем портреты реальных людей. Для исследования исследователи собрали 400 реальных лиц и создали еще 400, очень реалистичных. выстрелы в голову с помощью нейронных сетей. Исследователи использовали 128 из этих изображений и протестировали группу участников, чтобы увидеть, смогут ли они отличить настоящее изображение от подделки. Отдельной группе респондентов было предложено оценить, насколько правдоподобно они смотрели на лица, не намекая на то, что некоторые изображения вовсе не были человеческими.

Изображение для статьи под названием «Отбросьте глобальные кампании по дезинформации, у дипфейков новая роль: корпоративный спам».

Результаты не предвещают ничего хорошего для Team Human. В первом тесте участники смогли правильно определить, было ли изображение реальным или созданным компьютером, только в 48,2% случаев. Между тем групповая оценка достоверности дала лицам ИИ более высокий балл надежности (4,82), чем человеческим лицам (4,48).

«Легкий доступ к таким высококачественным фальшивым изображениям приводил и будет продолжать приводить к различным проблемам, включая более убедительные поддельные онлайн-профили и — по мере того, как генерация синтетических аудио и видео продолжает улучшаться — проблемы несогласованных интимных изображений, мошенничества и кампаний по дезинформации. “, – написали исследователи. «Поэтому мы призываем тех, кто разрабатывает эти технологии, задуматься о том, превышают ли связанные с этим риски их преимущества».

К этим результатам стоит отнестись серьезно, и они повышают вероятность значительной общественной неопределенности в отношении дипфейков, что рискует открыть ящик Пандоры новых сложных вопросов, касающихся подлинности, авторского права, политической дезинформации и большого «Т». правда в ближайшие годы и десятилетия.

Однако в ближайшей перспективе наиболее значимые источники политически проблематичного контента могут исходить не только из высокоразвитых дипфейков, управляемых искусственным интеллектом, а скорее из более простых так называемых «дешевые подделки», которые могут манипулировать мультимедиа с помощью гораздо менее сложного программного обеспечения или вообще без него. Примеры из них включают вирусное видео 2019 года. разоблачение предположительно забитая Нэнси Пелоси, невнятно произносящая слова (на самом деле это видео было просто замедлено на 25%), и это один из предполагаемого неуклюжего Джо Байдена, пытающегося продать американцам автострахование. Тот случай был на самом деле просто человеку плохо выдавать себя за голос президента дублирован поверх самого видео. Хотя они гораздо менее сексуальны, чем некоторые дипфейки Лента для мочи Трампаони оба привлекли огромное внимание в Интернете.


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *