Microsoft предлагает решение, чтобы остановить распространение дипфейков в интернете
Microsoft запускает новый набор стандартов для проверки подлинности онлайн‑контента
Microsoft объявила о создании «технических стандартов» для оценки реальности материалов, которые появляются в сети. Цель – помочь разработчикам ИИ и социальным платформам определить, были ли изображения или видео изменены цифровыми инструментами (например, дипфейками) и насколько надёжны методы их документирования.
Как работает система проверки
* Пример с картиной Рембрандта
- Создаётся подробный лог происхождения: места хранения, предыдущие владельцы.
- Картина сканируется, а из мазков кисти генерируется математическая подпись – «цифровой отпечаток пальца».
- При выставлении в музее посетитель может открыть эти данные и убедиться в оригинальности.
* Методы уже применяются
Microsoft исследовала 60 комбинаций существующих техник (удаление метаданных, мелкие изменения, целенаправленная манипуляция). Для каждой модели было смоделировано поведение в разных сценариях.
Исследователи выявили:
- Надёжные сочетания – можно показать широкой аудитории.
- Недостоверные комбинации – могут только усложнить ситуацию, создавая больше путаницы.
Почему это важно
* Законодательство требует прозрачности ИИ (например, «Закон о прозрачности ИИ» в Калифорнии).
* Microsoft пока не объявила, применит ли она эти стандарты на своих сервисах: Copilot, Azure, OpenAI и LinkedIn.
Стандарты не определяют правдивость контента; они лишь показывают, подвергался ли материал манипуляциям и откуда он пришёл. Если отрасль их примет, создание обманчивого контента станет заметно сложнее.
Состояние индустрии
| Компания | Действие | Статус |
|---|---|---|
| Microsoft | C2PA (2021) – отслеживание происхождения | Ведётся развитие новых средств |
| Водяные знаки для ИИ‑генерируемого контента (с 2023) | Активно внедряется |
Но полный набор инструментов от Microsoft может остаться лишь «проектом», если участники рынка увидят угрозу своим бизнес‑моделям.
Эффективность существующих решений
* Исследование показало, что только 30 % публикаций в Instagram, LinkedIn, Pinterest, TikTok и YouTube корректно помечены как созданные ИИ.
* Быстрое развертывание проверочных средств рискованно: сбои могут подорвать доверие пользователей.
Комплексные механизмы проверки предпочтительнее. Например, если над достоверным изображением выполнено небольшое редактирование ИИ, платформа может ошибочно классифицировать его как полностью сгенерированное. Интегрированный подход снижает вероятность ложноположительных результатов.
Итог
Microsoft предлагает структурированный набор стандартов для выявления цифровой манипуляции контентом. Эти инструменты призваны повысить прозрачность и доверие к онлайн‑материалам, но их успех зависит от принятия отраслью и надёжности интегрированных проверок.
Комментарии (0)
Оставьте отзыв — пожалуйста, будьте вежливы и по теме.
Войти, чтобы комментировать