Эксперт рассказал об опасности дипфейков с мимикой и голосом

0 9

EN


                    Эксперт рассказал об опасности дипфейков с мимикой и голосом

Следите за нашими новостями в удобном формате Есть новость? Присылайте! Генеративные нейросети способны воспроизводить не только внешность человека, но и его мимику, жесты и поведенческие особенности, что превращает дипфейки в инструмент манипуляций. Об этом 5 апреля «Известиям» рассказал ИИ-режиссер и предприниматель Алексей Рыков.

По его словам, при создании реалистичных изображений и видео нейросети опираются на реальные данные — фото и видеоматериалы, из которых извлекаются поведенческие паттерны.

Эксперт подчеркнул, что такие технологии уже активно используются злоумышленниками. Один из распространенных сценариев — видеозвонки с синтетическим лицом и голосом, когда мошенники выдают себя за знакомых или родственников.

Рыков добавил, что открытый контент в соцсетях также становится основным источником данных для обучения моделей. Пользователи фактически сами предоставляют материал для создания цифровых копий своей личности.

«Отдельная угроза — распространение фальшивых видео в публичном поле. Ролики с участием известных людей могут быстро набирать аудиторию, тогда как опровержения выходят позже и охватывают меньше пользователей. Кроме того, дипфейки используются как инструмент давления в деловых и личных конфликтах — для их создания достаточно нескольких фрагментов из открытого профиля», — заявил Рыков.

По словам эксперта, нейросети позволяют воспроизводить образ человека практически в любом контексте и масштабе. Он также отметил, что существующие инструменты обнаружения дипфейков ограничены в эффективности и не успевают за ростом количества таких видео.

В заключение эксперт добавил, что в будущем возможно развитие маркировки ИИ-контента и усиление ответственности за его использование, а также формирование культуры цифрового согласия. Технология, по его словам, пройдет путь, схожий с развитием интернета, но быстрее и с более серьезными последствиями для идентичности человека.

Психолог, член ассоциации когнитивно-поведенческой терапии Вероника Ахметова 11 марта сообщила, что работа с искусственным интеллектом (ИИ) может стать причиной депрессии и выгорания у сотрудников, если взаимодействие с системой не выстроено правильно. Прежде всего, это связано с утратой смысла работы.

Все важные новости — в канале «Известия» в мессенджере МАХ

Источник: iz.ru

0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x