YouTube будет уведомлять общественных деятелей и репортеров о дипфейках с их изображением

Генерация видео с помощью ИИ — это реальная проблема. Даже в эпоху, когда ИИ-видео часто имеют отличительные признаки, выдающие их природу — например, быстро трансформирующийся полуприцеп Coca Cola в рождественской рекламе прошлого года — они часто достаточно хороши, чтобы обмануть зрителей, поэтому некоторые владельцы платформ пытаются предвидеть любые потенциально проблемные дипфейки.

Сегодня YouTube расширяет свою функцию обнаружения изображений, включив в нее политиков, государственных служащих, кандидатов на политические должности и репортеров. Ранее компания запустила эту функцию в прошлом году для своих партнеров YouTube, но теперь те, кто подпадает под эти новые категории защиты, не должны быть участниками этой программы, чтобы воспользоваться ею. Как и в случае с Content ID, функция обнаружения изображений YouTube работает, находя совпадения лиц в контенте, сгенерированном ИИ на платформе, прежде чем позволить соответствующему участнику отправить запрос на удаление этого конкретного видео.

YouTube заявляет, что автоматически не удаляет весь совпадающий контент, за исключением случаев пародии и сатиры, даже в отношении мировых лидеров, но ищет все, что нарушает существующие правила конфиденциальности. Те, кто имеет право на участие в этой программе, должны будут подтвердить свою личность с помощью Google, хотя компания заявляет, что эти данные не используются для обучения моделей ИИ. YouTube также использует это объявление, чтобы призвать к принятию Закона NO FAKES в Конгрессе, который, по их словам, «устанавливает федеральное право на публичность и служит образцом для международного внедрения, чтобы гарантировать, что технологии служат, а не заменяют, человеческое творчество».

К сожалению, если вы не являетесь участником программы YouTube Partner Program или не занимаете одну из этих поддерживаемых публичных должностей, функция обнаружения изображений пока остается недоступной.

Подробнее о YouTube: