Технологии совершенствования дипфейков развиваются быстрее, чем законы в этой области. Американские Twitter, Facebook и китайский TikTok попытались самостоятельно отрегулировать распространение дипфейков разными способами [1].
Например, новая политика TikTok запрещает любой синтетический или манипулирующий контент, который вводит пользователей в заблуждение, искажая правду о событиях, и который влечет причинение вреда. Политика этой соцсети призвана предупредить использование любого вида обманного видео для очернения политических оппонентов в интернете.
Facebook в начале 2020 года анонсировал политику для удаления дипфейков. Сообщения будут удалены, если: контент может ввести кого-то в заблуждение, заставив думать, что субъект видео сказал слова, которых он на самом деле не говорил; это продукт искусственного интеллекта или машинного обучения, который изменяет видео, делая его похожим на настоящий.
Twitter ввел правила по дипфейкам и манипулированию СМИ, которые в основном предусматривают пометку твитов и предупреждение пользователей об измененных новостях, а не их удаление. По заявлению компании, твиты, содержащие фальсифицированные или недостоверные материалы, будут удаляться только в том случае, если они могут причинить вред.
Основной проблемой для соцсетей являлось отсутствие технологии обнаружения дипфейков. В 2019 году Facebook вместе с Microsoft и другими партнерами запустили конкурс для решения проблемы обнаружения The Deepfake Detection Challenge. Самой успешной стала модель белорусского разработчика Селима Сефербекова. Она достигла точности 65,18% на тестовых дата-сетах. На третьем месте — модель российской компании NTechLab.
Технологические лидеры — «Яндекс», TikTok, Microsoft, IBM, Kaspersky Lab, Reface, FaceApp, Ntechlab, и др. отказались комментировать РБК тренды дипфейков и авторского права.
Источник:
1. Янина Ноэль «Дипфейки: как трансформируется авторское право на контент» (18.05.2021). Получено: https://trends.rbc.ru/trends/industry/5fc688fe9a79473e6ff9b82a