26 апреля 2024 , 15:32

Роскачество заявило о важности защиты биометрических данных в Сети

ПОСЛЕДНИЕ НОВОСТИ

Стремительный прогресс в развитии технологий искусственного интеллекта открывает новые горизонты как для инноваций, так и для потенциальных злоупотреблений. В частности, нейросетевые модели, известные под названием DeepFake, теперь способны с высокой точностью имитировать голос любого человека на основе небольших аудиозаписей. Данная технология, традиционно ассоциируемая с фальсификацией видеоконтента, представляет серьезную угрозу и в сфере манипуляции голосовыми сообщениями, пишет Российская газета.

Как объясняют эксперты Роскачества, для создания убедительной аудиоподделки преступникам достаточно всего 20-секундного фрагмента речи жертвы. Используя различные сервисы и программные решения, основанные на нейросетях, они могут воссоздать уникальные особенности тембра, интонаций и манеры речи конкретного человека. Это позволяет им реализовывать изощренные мошеннические схемы, когда звонящий под видом близкого родственника или знакомого пытается ввести в заблуждение и побудить к денежному переводу на чужой счет.

Особую опасность представляет тот факт, что злоумышленники могут получить образцы голоса жертвы из открытых источников, включая социальные сети и мессенджеры, где многие пользователи активно используют голосовые сообщения. Кроме того, они могут применять данные, украденные в результате утечек биометрической информации. Это значительно расширяет арсенал средств, доступных для создания правдоподобных аудиоподделок.

Эксперты Роскачества подчеркивают, что несмотря на существование методов обнаружения синтетического контента, созданного с помощью нейросетей, уровень угрозы остается высоким. Особую озабоченность вызывает перспектива распространения DeepFake-технологий, ориентированных на генерацию не только аудио, но и видеозвонков. Это способно вывести мошеннические схемы на качественно новый уровень, повышая вероятность введения жертв в заблуждение.

Для противодействия этим вызовам Роскачество разработало комплексные рекомендации по обеспечению цифровой безопасности, которые включают в себя:

— Игнорирование подозрительных звонков с неизвестных номеров
— Распознавание признаков синтетического голоса (чрезмерная обработка, механичность)
— Использование двухфакторной аутентификации для аккаунтов
— Осторожность при публикации личной информации в открытых источниках
— Отказ от совершения финансовых операций по просьбам незнакомцев
— Регулярное сканирование устройств антивирусным ПО

Кроме того, эксперты призывают к скорейшему развитию систем автоматического детектирования синтетического контента и внедрению обязательной маркировки таких материалов, как это практикуется в некоторых странах.

Противостояние вызовам, создаваемым прорывными технологиями ИИ в сфере речевой манипуляции, требует комплексного подхода, включающего как совершенствование технических методов защиты, так и повышение цифровой грамотности пользователей. Только в таком ключе можно обеспечить надежную защиту от изощренных мошеннических схем, основанных на DeepFake.

Народная дипломатия: политика и общество