Взлом и опасность ИИ: новая угроза для безопасности человечества
Современные системы искусственного интеллекта становятся все умнее и мощнее, но с этим ростом возможностей появляется и новая угроза. Бывший генеральный директор компании Google, Эрик Шмидт, предостерегает от потенциальных рисков, связанных с уязвимостью ИИ-систем. Он заявил, что злоумышленники могут взломать эти системы и переобучить их в опасные направления.
Почему системы ИИ могут стать опасными?
На конференции Sifted Summit 2025 в Лондоне Шмидт объяснил, что современные модели искусственного интеллекта могут быть лишены встроенных защитных механизмов. Он отметил, что существует доказательство того, что как закрытые, так и открытые модели ИИ можно взломать и убрать их системы безопасности.
«В процессе обучения ИИ моделям передаются огромные объемы информации. В худшем случае, они могут научиться тому, чего нельзя было бы допускать, например — как причинить вред или уничтожить человека», — подчеркнул он.
Масштабные угрозы и недавние инциденты
Недавний случай с взломом чат-бота демонстрирует, насколько уязвимы даже самые продвинутые системы. В 2023 году появился модифицированный вариант ChatGPT по имени DAN, что означало «Делай что угодно сейчас». Этот «взломанный» бот обходил все меры безопасности и отвечал на любые запросы, несмотря на запреты. Пользователи могли «угрожать» ему цифровой смертью, чтобы заставить отвечать — что показывает, насколько хрупка этика ИИ при неправильной настройке.
Глобальные риски и необходимость контроля
Шмидт сравнил гонку за развитием ИИ с начальным этапом ядерной эпохи — технологиями с огромным потенциалом и минимальными международными правилами. Он призвал к созданию системы недопущения распространения опасных ИИ, чтобы исключить их использование злоумышленниками.
Эта проблема не является только теоретической. В 2023 году в сети появился демонстрационный бот DAN, который смог отвечать на практически любые запросы без ограничений. Это яркое свидетельство того, как легко можно нарушить безопасность системы, если не предпринимать должных мер.
Мнения известных экспертов и потенциальные последствия
Не только Шмидт, но и другие известные фигуры, такие как Илон Маск, выражают опасения относительно развития ИИ. Маск заявил, что существует «не нулевая вероятность» того, что ИИ может привести к катастрофе, подобной сценарию из фильмов о Терминаторе. Он подчеркнул, что хотя шанс невелик, его нельзя игнорировать — важно делать всё возможное, чтобы снизить его до минимума.
Экзистенциальные риски и возможности для блага
Эрик Шмидт также говорит о том, что ИИ представляет собой «экзистенциальную угрозу». Он отметил, что неправильное использование технологий может привести к гибели или серьезному ущербу для миллионов людей. Однако он уверен, что при ответственном управлении ИИ может принести огромную пользу — например, в медицине или образовании.
Как защититься от угроз, связанных с ИИ
- Выбирайте инструменты и чат-боты только у проверенных компаний, которые придерживаются прозрачных правил безопасности.
- Отказуйтесь от экспериментальных или «взломанных» моделей ИИ, обещающих неограниченные ответы.
- Никогда не делитесь личной, финансовой или конфиденциальной информацией с неизвестными или неподтвержденными системами.
- Используйте сервисы по удалению личных данных из интернета — это поможет снизить риск их использования злоумышленниками.
Хотя полностью исключить риск невозможно, такие меры значительно усложнят жизнь злоумышленникам и снизят вероятность использования ИИ в преступных целях.
Практические советы по обеспечению безопасности в 2025 году
Для защиты вашей онлайн-личности рекомендуем обратиться к проверенным сервисам по удалению данных и пройти бесплатный скан, чтобы понять, какая информация о вас уже есть в сети. Также регулярно обновляйте антивирусное программное обеспечение, чтобы защититься от фишинговых атак, вредоносных программ и мошеннических сайтов.
При использовании ИИ-приложений внимательно изучайте, какие разрешения они требуют, и отключайте лишние доступы, такие как геолокация или доступ к файлам.
Где искать дополнительную информацию и ресурсы
- Проверяйте источники, перед тем как доверять новым видео, сообщениям или официальным заявлениям, созданным при помощи ИИ.
- Обновляйте программное обеспечение и своевременно устанавливайте патчи безопасности – это поможет защититься от возможных уязвимостей.
- Проведите онлайн-тест, чтобы понять, насколько вы осведомлены о своих цифровых привычках и что можно улучшить.
Образованность и ответственность пользователей — важнейшие компоненты безопасности в эпоху искусственного интеллекта. Ваша осознанность и осторожность помогут сохранить личные данные и защитить себя от злоумышленников, использующих уязвимости современных систем.