Уральцев предупредили о мошенничестве с ИИ

Эксперт «Лаборатории Касперского» рассказал о новых схемах краж с использованием искусственного интеллекта.
22 февраля, 2026, 03:40
2

Бесплатные чат-боты представляют особую угрозу для конфиденциальности данных

Источник:

Наталья Лапцевич / 74.RU

В России набирает обороты новый вид мошенничества, в котором злоумышленники используют искусственный интеллект наряду с социальной инженерией.

При использовании ИИ-сервисов важно обращать внимание на пользовательское соглашение, где описан порядок обработки данных

Источник:

Наталья Лапцевич / 74.RU

О способах защиты от дипфейков и утечек данных рассказал Владислав Тушканов, руководитель группы исследований технологий машинного обучения «Лаборатории Касперского».

По его словам, преступники применяют ИИ на всех этапах кибератаки — от первого контакта с жертвой до создания вредоносного кода.

«Мы регулярно фиксируем использование ИИ для создания фишинговых страниц, написания программ-вымогателей (например, FunkSec), а также инструментов для продвинутых целевых атак, подобных операциям группы Bluenoroff», — сообщил Тушканов.

Дипфейки — это поддельные видео- или аудиосообщения, созданные с помощью ИИ. Мошенники часто используют их для кражи данных и финансовых средств.

Опасность существует не только со стороны злоумышленников, но и при использовании ИИ-сервисов обычными пользователями. Даже на официальных платформах возможны утечки конфиденциальной информации.

«Причинами могут быть как кибератаки, так и ошибки в архитектуре или конфигурации сервисов, — продолжил эксперт. — Крупные ИТ-компании следят за безопасностью, но пользователи нередко обращаются к малоизвестным сервисам или бесплатным версиям чат-ботов, уровень защиты которых может быть ниже».

«Проблема в том, что такие сервисы часто не раскрывают информацию о политике конфиденциальности. Если их создатели окажутся недобросовестными, данные пользователя могут быть скомпрометированы», — добавил Владислав Тушканов.

Специалист напомнил, что все, что пользователь вводит в чат-бота, теоретически может использоваться провайдером сервиса — например, для обучения и улучшения моделей.

«Мы сталкивались с примером, когда сайт предлагал доступ к ChatGPT, и пользователь получал возможность работать с ботом. Однако параллельно на этом же ресурсе публиковались переписки пользователей в открытом доступе, — обратил внимание эксперт. — Поэтому при работе с ИИ-сервисами важно задавать себе вопрос: является ли информация, которую я загружаю, конфиденциальной и критичной для меня или моей компании?»

Эксперт рекомендует не передавать чат-ботам конфиденциальные корпоративные данные, чтобы избежать их публикации из-за потенциальных утечек.

Для повышения безопасности следует соблюдать несколько базовых правил:

  • Включать двухфакторную аутентификацию везде, где это возможно.
  • Не переходить по подозрительным ссылкам.
  • Использовать уникальные сложные пароли и менеджеры паролей.
  • При получении аудио- или видеосообщений, особенно касающихся финансов, проверять личность говорящего, чтобы исключить дипфейк.

В качестве примеров дипфейков можно привести фальшивые видео с мэром Екатеринбурга Алексеем Орловым и губернатором Свердловской области Денисом Паслером.

Осведомленность о методах мошенников значительно снижает риск попасть в их ловушку.

Читайте также