Ваш сайт могут взломать быстрее, чем вы дочитаете эту статью — мнение IT-экспертов

За последние месяцы новости о взломах, утечках и зараженных сайтах начали появляться слишком часто, чтобы считать это совпадением. Причем речь уже не только про крупные компании или госструктуры. Под раздачу всё чаще попадают небольшие интернет-магазины, региональный бизнес, старые корпоративные сайты и проекты, которые годами работали в режиме «не трогай — и не сломается».

И тут действительно не нужно быть великим аналитиком, чтобы заметить связь. 

Мы поговорили с экспертами о том, насколько всё это опасно в 2026 году, могут ли AI-агенты реально взламывать сайты быстрее людей и почему старый сайт сегодня постепенно превращается из актива в потенциальную проблему для бизнеса. 

Юрий Слатин работал более чем над 250 проектами для 180+ клиентов, включая компании из списка Fortune. По его словам, многие понимают масштаб проблем слишком поздно — обычно уже тогда, когда сайт начинает сыпаться после очередного обновления или появляются первые последствия взлома.

Picture of Юрий Слатин

Юрий Слатин

Эксперт XR-агентства LikeVR

Проблемы обычно не только в старом коде, а в том, что такие сайты обычно существуют в полузаброшенном виде. Они работают, приносят заявки и бизнес не видит повода вкладываться в обновление и усиление защиты. Уязвимости накапливаются – устаревшие плагины, дыры в формах, неподдерживаемые версии CMS. 

Мы регулярно сталкиваемся с такими сайтами наших клиентов. Бизнес приходит к нам, чтобы обновить дизайн или добавить функционал. Мы начинаем изучать и видим, что если обновим здесь, то сломается в другом месте. Там починим – перестанет работать еще что-то. В итоге выясняется, что сайт проще пересобрать с нуля, чем пытаться частями менять.

И да, с помощью ИИ-агентов потенциальные злоумышленники могут уязвимые зоны вычислить за минуты. Опасность вполне реальная. От внедрения вредоносного кода и утечек данных до блокировок и падения в поисковой выдаче. Но часто бизнес узнаёт о проблемах только тогда, когда начинают падать заявки или приходят жалобы от клиентов.

Поэтому решение тут одно – постоянно проводить аудит безопасности, а не разово. Даже простой технический аудит уже дает понимание, в каком состоянии система. И во многих случаях он заканчивается решением не чинить, а переносить сайт на современный стек.

Что касается “новых программистов” и разработки через ИИ. Здесь важно разделять инструмент и подход. ИИ действительно ускоряет разработку и позволяет быстрее собирать решения. Мы сами это используем. Но проблема в том, что он так же быстро может воспроизводить ошибки и уязвимости, если человек не понимает, что он делает.

Поэтому доверие не к тому, пишет ли код человек или ИИ, а к тому, кто отвечает за результат. Если есть понимание архитектуры, процессов и безопасности, инструменты только помогают. Если этого нет, скорость разработки просто увеличивает количество проблем.

Алексей Постригайло смотрит на проблему с другой стороны. По его словам, опасность давно касается не только древних сайтов на PHP 5.x. Иногда достаточно одного старого плагина или открытой служебной страницы, чтобы получить серьезную дыру в безопасности.

Да, я считаю это реальной угрозой. И проблема не только в сайтах, которые сделали 10-15 лет назад у фрилансера. Проблема шире: у сайта может быть относительно свежая версия PHP, но при этом стоять старый плагин, через который его можно вскрыть. Мы сейчас запустили внутренний проект по постоянному мониторингу большой части рунета. Наружу его выведем позже, но уже видим: примерно у 10-15% сайтов на WordPress есть серьезные дыры, часто именно из-за плагинов.

Отдельный пласт — сайты на старых версиях PHP и самописные решения, которые никто давно не поддерживает. Там риск еще выше. Если рядом сильная техническая команда, часть таких проблем можно закрывать: обновлять зависимости, ограничивать доступы, проверять подозрительные изменения в коде. Если команды нет, сайт становится легкой целью. Его могут взломать или заразить, а потом потребовать деньги за восстановление. Главная беда в том, что у таких владельцев часто нет нормальной резервной копии и понимания, кто вообще отвечает за сайт.

Я бы ожидал, что в течение года таких атак станет больше. Поиск слабых мест дешевеет: старые плагины, открытые служебные страницы и ошибки в коде уже можно искать быстрее и почти массово. Поэтому аудит безопасности и проверка кода здесь не роскошь, а нормальная гигиена. Начинать надо с простого: понять, на чем работает сайт, какие плагины стоят, кто имеет доступ, когда были обновления, есть ли рабочая резервная копия и можно ли восстановить сайт без выкупа. Только после этого имеет смысл говорить о глубокой проверке кода.

К разработке через агентов я отношусь спокойно, но только если за результат отвечает сильный инженер. Агент может быстро написать код, но он не отвечает за последствия. Если новый программист просто принимает сгенерированный код без проверки, это риск. Если есть контроль доступа и человек, который понимает архитектуру проекта, тогда это рабочий инструмент. Доверять нужно не агенту, а процессу вокруг него.

Если предыдущие эксперты в основном говорят про технический долг, заброшенные плагины и отсутствие поддержки, то Павел Роменский, который почти 20 лет занимается IT-аутсорсингом и обслуживанием бизнеса, обращает внимание уже на саму механику новых атак.

Picture of Роменский Павел

Роменский Павел

ООО «Айти-Юг», эксперт в области комплексного IT-аутсорсинга и сервисного обслуживания бизнеса.

Я обслуживаю бизнес в Краснодаре и Ростове-на-Дону более 17 лет. И тема старого сайта у фрилансера — это не гипотетическая угроза. Да, я думал над этим вопросом. Да, считаю это прямой реальной опасностью. И да, ситуация действительно стала страшнее, чем была ещё два года назад.

Почему именно сейчас? Потому что появились AI-агенты.

Раньше, чтобы взломать старый сайт на PHP 5.x с заброшенным WordPress, нужен был человек с навыками. Он искал уязвимости, писал скрипты, тратил время. Теперь — нет.

Февраль 2025 года. Андрей Карпаты, сооснователь OpenAI и экс-директор по ИИ в Tesla, публикует пост про «вайб-кодинг». Идея простая: вы отдаетесь вайбу, забываете про код, а ИИ делает всё сам. Карпаты оговорился: «неплохо для проектов выходного дня». Но интернет услышал другое — что можно забить на код и просто вайбить.

ЧИТАТЬ →  Исследование: смарт-ТВ от Samsung и LG тайно собирают данные пользователей

А дальше произошло два технологических прорыва. Первый — контекстное окно выросло до миллионов токенов. Теперь нейросеть видит весь проект целиком, 75 тысяч строк кода. Второй — модели научились рассуждать, строить цепочки действий.

Эти два изменения превратили ИИ из умного автодополнения в нечто похожее на младшего разработчика — неопытного, ошибающегося, но способного взять задачу и довести до результата.

И вот Вы ставите задачу автономному агенту: «найди точки входа на сайте example.ru». Агент сам: сканирует, анализирует, находит формы без валидации, старые плагины, открытые API. И делает это не за часы — за 10–15 минут.

Почему это особенно опасно для старых сайтов

У сайта 10–15-летней давности типичный букет: PHP 5.x (поддержка прекращена лет семь назад), старые версии WordPress, плагины, которые никто не обновлял. Патчи безопасности не ставятся годами. Уязвимости этих версий давно известны, описаны, и теперь — полностью автоматизированы для атаки через ИИ.

И самое страшное, про что я хочу сказать: когда такой агент ломает что-то, он может врать о последствиях и пытаться скрыть проблемы. Был случай в июле 2025 года: основатель конференции SaaStr Джеймс Лемкин экспериментировал с Replit Agent. Агент удалил всю базу данных, проигнорировав запреты, а потом соврал о возможности восстановления и создал фейковую базу с 4000 несуществующих людей. Представьте, что такой агент получает доступ к вашему старому сайту с клиентской базой или платежными данными.

Аудит нужен. И срочно.

Поэтому отвечаю на вопрос: что делать тем, у кого сайт не обновлялся десятки лет? Я планирую рекомендовать всем клиентам, у кого есть старые сайты, срочный аудит безопасности и код-ревью. Но важный нюанс: этот аудит должен делать живой человек-профессионал, а не ИИ-агент.

Почему? Потому что ИИ хорош для точечных задач, но опасен для проектов, где важна безопасность. Там, где ошибка может привести к утечке данных, финансовым потерям или падению сервиса, ИИ пока не доверяют. Именно об этом говорил автор поста про лайфкодинг — и это правда.

Обратите внимание на важную деталь. Тот же Карпаты, который придумал термин «вайб-кодинг» и легитимизировал его для миллионов разработчиков, свой последний проект — чат-клиент NanoChat — написал руками. Почему? Он сам объяснил: «ИИ-агенты просто не работали достаточно хорошо. Были бесполезны. Возможно, репозиторий слишком далек от того, на чем они обучались».

Получается любопытная картина: человек, который открыл дверь в мир вайб-кодинга, сам в эту дверь не заходит, когда дело касается чего-то важного. Инструмент, который он описывал для проектов выходного дня, другие люди начали применять для продакшена, приложений с реальными пользователями и реальными деньгами. И получили удаленные базы данных, утекшие API-ключи и, в итоге, закрытые проекты.

Поэтому, когда речь идет об аудите старого сайта, на котором держится бизнес, не доверяйте эту задачу «новым программистам с агентами». Агент может найти уязвимость, но он не поймет бизнес-контекст, не оценит реальные риски, не сможет принять решение «это правка безопасна, а эту переписываем с нуля». Для этого нужен профессионал с опытом, который понимает каждую строчку кода и знает, где ИИ врет с уверенностью эксперта.

ЧИТАТЬ →  «Я банкрот»: сколько стоит услуга банкротства и чем это грозит?

Аудит старого сайта — это не вопрос «запустить сканер ИИ». Это вопрос выживания бизнеса в условиях, когда взлом стал автоматизированным.

Доверяю ли я новым программистам с агентами?

Нет. И вот почему. Линус Торвальдс, создатель Linux, сказал на саммите Open Source Summit: «Вайб-кодинг — отличный способ заинтересовать новичков компьютерами. И ужасная идея, если пытаться сделать из этого продукт». 

Когда от кода зависят серверы банков, медицинское оборудование, бизнес-сайты с реальными клиентами — нужны люди, которые понимают каждую строчку.

Агенты — отличный инструмент для прототипов, для проверки гипотез, для небольших личных проектов. Но не для продакшена, где лежат реальные деньги и данные клиентов.

Новые проблемы почти всегда рождают новые инструменты защиты. Когда массово появились компьютерные вирусы — появился рынок антивирусов. Когда интернет захлебнулся от спама — появились антиспам-фильтры и системы репутации. Когда начались DDoS-атаки на сайты и банки, возникли Cloudflare, WAF-фильтры и целая индустрия защиты трафика.

С AI будет происходить примерно то же самое. Только скорость здесь уже совсем другая.

Сейчас AI-агенты начинают автоматизировать поиск уязвимостей. Следующий этап — массовое появление встречных AI-систем, которые в реальном времени будут мониторить проекты, анализировать подозрительные изменения в коде, отслеживать аномальное поведение пользователей и буквально предсказывать потенциальную атаку до момента взлома.

И часть этого рынка уже появляется. Крупные компании тестируют AI-аудит кода, автоматический анализ зависимостей, системы поведенческого мониторинга и автономные security-агенты. По сути начинается гонка двух ИИ: один ищет уязвимость, второй пытается успеть её закрыть раньше.

Но здесь есть важная проблема. Малый и средний бизнес почти всегда отстает в подобных технологических переходах. Крупная компания может позволить себе DevSecOps-команду, постоянный аудит и дорогие системы мониторинга. У небольшого бизнеса часто есть только сайт, который просто работает.

Именно поэтому старые сайты сейчас постепенно превращаются в одну из самых слабых точек малого бизнеса. Особенно если проекту 10–15 лет, а за всё время его никто нормально не пересобирал и не проверял.

Скорее всего, ближайшие несколько лет рынок разделится на две категории. Первая — компании, которые начнут относиться к безопасности как к постоянному процессу. Вторая — бизнесы, которые будут вспоминать про сайт только после взлома, блокировки или утечки базы клиентов.

Причем парадоксально, но AI в итоге может сделать интернет одновременно безопаснее и опаснее. Безопаснее — потому что аудит и поиск проблем станут дешевле. Опаснее — потому что атаковать инфраструктуру тоже станет кратно проще.

Что происходит с рынком найма

Поговорили с экспертами на тему ИИ, найма сотрудников и сокращений в компаниях

Автор

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Прокрутить вверх