В ЕС подняли вопрос о случаях сексуализированного насилия при помощи дипфейков
Дипфейк — реалистичная подмена фото-, аудио- и видеоматериалов, созданная при помощи нейросетей. Искусственный интеллект анализирует большое количество снимков и учится тому, как может выглядеть и двигаться конкретный человек. Скандальную популярность эта технология обрела, когда с ее помощью стали производить порноматериалы с участием популярных личностей: распространение подобного контента наносило ущерб их репутации в глазах зрителей, которые не отличали дипфейк от реальной личности.
«Недавние случаи сексуализированного насилия в отношении женщин, связанные с использованием дипфейкового контента, в частности, случай с [американской певицей] Тейлор Свифт, чьи поддельные изображения были распространены по всему миру, ясно показывают, что Европейскому союзу необходимо уделять более пристальное внимание этому вопросу», — говорится в письме Томака.