Новейшие методы кибершпионажа: как северокорейские хакеры используют искусственный интеллект для подделки военных удостоверений

Новейшие методы кибершпионажа: как северокорейские хакеры используют искусственный интеллект для подделки военных удостоверений Thumbnail

Кибершпионаж с помощью искусственного интеллекта: новая тактика северокорейских хакеров

Группа хакеров из Северной Кореи, известная под названием Kimsuky, недавно продемонстрировала новые возможности использования искусственного интеллекта в киберпреступной деятельности. Они использовали модель ChatGPT для автоматического создания фальшивых проектов военных удостоверений Южной Кореи. Эти подделки затем были внедрены в фишинговые письма, маскирующиеся под официальные сообщения южнокорейских оборонных структур, ответственных за выдачу удостоверений для военных и связанных с ними лиц.

Как было осуществлено мошенничество

Исследовательская команда южнокорейской кибербезопасности из компании Genians раскрыла этот масштабный сценарий в своём недавнем блоге. Несмотря на то, что современные системы ChatGPT оснащены защитными мерами, блокирующими попытки генерации официальных государственных документов, злоумышленники сумели обойти эти барьеры. Они использовали специально сформулированные запросы, чтобы получить реалистичные макеты удостоверений, которые выглядят очень профессионально и убедительно.

Генеративные модели, как отмечают эксперты, могут создавать очень убедительные фальшивки при правильной постановке задач, например, при запросах вида «пример дизайна для легитимных целей». Такой подход значительно усложняет обнаружение мошенничества и требует новых методов защиты.

Глобальный контекст и последствия

Группа Kimsuky — не новичок в области кибершпионажа. За годы деятельности она связана с многочисленными операциями против Южной Кореи, Японии и США. В 2020 году Министерство внутренней безопасности США отметило, что данная группа, скорее всего, выполняет задания, поставленные северокорейским руководством, на сбор разведывательной информации по всему миру.

Компания Genians подчеркнула, что последние случаи использования искусственного интеллекта показывают, насколько изменился ландшафт киберугроз. Возможность быстро и масштабно создавать поддельные документы и активы делает атаки более сложными для обнаружения. Эксперт по кибербезопасности и генеральный директор компании Netarx, Сэнди Кроненберг, предупреждает:

  • «Искусственный интеллект снизил порог входа для сложных атак».
  • «Теперь злоумышленники могут массово производить очень убедительные фальшивки, комбинируя их с другими видами мошенничества».

Он добавляет, что защита должна становиться более комплексной, включая проверку через множество каналов — голос, видео, электронная почта и метаданные — чтобы выявлять несоответствия, которые искусственный интеллект не способен полностью скрыть.

Использование ИИ для киберпреступлений по всему миру

Не только Северная Корея применяет искусственный интеллект для кибератак. Компания Anthropic, создатель чатбота Claude, сообщает, что китайские хакеры в течение более девяти месяцев использовали этот инструмент для атак на телекоммуникационные компании, системы сельского хозяйства и государственные базы данных в Вьетнаме.

По данным OpenAI, китайские злоумышленники также использовали ChatGPT для разработки скриптов взлома паролей и поиска секретной информации в оборонных сетях США, спутниковых системах и системах проверки личных данных. Некоторые операции включали создание фальшивых сообщений в соцсетях с целью разжигания политической напряжённости в США.

Google сообщает о похожих сценариях с моделью Gemini, которая используется для устранения ошибок в коде и проникновения в сети, а также для помощи северокорейским хакерам в подготовке сопроводительных писем и поиске вакансий в сфере информационных технологий.

Угрозы для безопасности: как ИИ помогает скрывать фишинговые атаки

Эксперты по кибербезопасности предупреждают, что использование искусственного интеллекта значительно усложняет защиту от мошенничества. Новые инструменты позволяют создавать убедительные фишинговые сообщения, маскировать вредоносный код и обходить традиционные средства защиты.

Клайд Уильямсон, главный специалист по безопасности компании Protegrity, отмечает:

«Сообщения о том, что северокорейские хакеры использовали ИИ для подделки военных удостоверений, — это тревожный сигнал. Правила игры в фишинг изменились. Раньше мы обращали внимание на орфографические ошибки или необычное оформление. Сейчас ИИ создаёт профессиональные и безупречные макеты, лишённые очевидных признаков мошенничества».

Он подчеркивает необходимость пересмотра методов обучения сотрудников и усиления технических мер защиты, таких как многофакторная аутентификация, современные системы электронной подписи и мониторинг в реальном времени.

Как защититься в эпоху искусственного интеллекта

Чтобы снизить риски, специалисты советуют соблюдать несколько простых правил:

  • Всегда проверяйте подозрительные сообщения, связавшись с отправителем через другой канал.
  • Используйте надёжное антивирусное программное обеспечение, которое сможет обнаружить вредоносные ссылки и файлы.
  • Удаляйте личную информацию с сайтов Data Broker, чтобы уменьшить вероятность целевых атак.
  • Включайте двухфакторную аутентификацию (МФА) на всех важных аккаунтах.
  • Обновляйте системы и приложения — многие уязвимости устраняются именно в обновлениях.
  • При малейших сомнениях сообщайте о подозрительных сообщениях вашей IT-команде или провайдеру электронной почты.

Постоянное развитие технологий требует от каждого из нас бдительности и ответственности. Искусственный интеллект — мощный инструмент, который может как помочь, так и навредить. Важно научиться распознавать опасности и своевременно реагировать на новые угрозы.

Артем Мельник

Артем Мельник

Артем — эксперт по ИТ и новым технологиям, освещает стартапы, кибербезопасность и разработки украинских программистов. Ранее работал в сфере разработки ПО.

Расскажите друзьям