Уральцев предупредили о мошенничестве с ИИ

Бесплатные чат-боты представляют особую угрозу для конфиденциальности данных
В России набирает обороты новый вид мошенничества, в котором злоумышленники используют искусственный интеллект наряду с социальной инженерией.

При использовании ИИ-сервисов важно обращать внимание на пользовательское соглашение, где описан порядок обработки данных
О способах защиты от дипфейков и утечек данных рассказал Владислав Тушканов, руководитель группы исследований технологий машинного обучения «Лаборатории Касперского».
По его словам, преступники применяют ИИ на всех этапах кибератаки — от первого контакта с жертвой до создания вредоносного кода.
«Мы регулярно фиксируем использование ИИ для создания фишинговых страниц, написания программ-вымогателей (например, FunkSec), а также инструментов для продвинутых целевых атак, подобных операциям группы Bluenoroff», — сообщил Тушканов.
Дипфейки — это поддельные видео- или аудиосообщения, созданные с помощью ИИ. Мошенники часто используют их для кражи данных и финансовых средств.
Опасность существует не только со стороны злоумышленников, но и при использовании ИИ-сервисов обычными пользователями. Даже на официальных платформах возможны утечки конфиденциальной информации.
«Причинами могут быть как кибератаки, так и ошибки в архитектуре или конфигурации сервисов, — продолжил эксперт. — Крупные ИТ-компании следят за безопасностью, но пользователи нередко обращаются к малоизвестным сервисам или бесплатным версиям чат-ботов, уровень защиты которых может быть ниже».
«Проблема в том, что такие сервисы часто не раскрывают информацию о политике конфиденциальности. Если их создатели окажутся недобросовестными, данные пользователя могут быть скомпрометированы», — добавил Владислав Тушканов.
Специалист напомнил, что все, что пользователь вводит в чат-бота, теоретически может использоваться провайдером сервиса — например, для обучения и улучшения моделей.
«Мы сталкивались с примером, когда сайт предлагал доступ к ChatGPT, и пользователь получал возможность работать с ботом. Однако параллельно на этом же ресурсе публиковались переписки пользователей в открытом доступе, — обратил внимание эксперт. — Поэтому при работе с ИИ-сервисами важно задавать себе вопрос: является ли информация, которую я загружаю, конфиденциальной и критичной для меня или моей компании?»
Эксперт рекомендует не передавать чат-ботам конфиденциальные корпоративные данные, чтобы избежать их публикации из-за потенциальных утечек.
Для повышения безопасности следует соблюдать несколько базовых правил:
- Включать двухфакторную аутентификацию везде, где это возможно.
- Не переходить по подозрительным ссылкам.
- Использовать уникальные сложные пароли и менеджеры паролей.
- При получении аудио- или видеосообщений, особенно касающихся финансов, проверять личность говорящего, чтобы исключить дипфейк.
В качестве примеров дипфейков можно привести фальшивые видео с мэром Екатеринбурга Алексеем Орловым и губернатором Свердловской области Денисом Паслером.
Осведомленность о методах мошенников значительно снижает риск попасть в их ловушку.




















