Бывает типичная ситуация: вы запустили сайт, всё красиво, всё работает, ждёте месяц, два, иногда даже полгода — а в поиске ничего не происходит. Сайт не появляется по названию компании, не видно страниц, заявок из поиска нет.
И речь сейчас не про то, что сайт “плохо продвигается”. Иногда проблема гораздо банальнее: сайт просто закрыт от индексации. То есть поисковые системы его не обходят или не добавляют страницы в базу.
Это частая ошибка, и, что особенно обидно, часто она решается за 5–10 минут.
Индексация — это процесс, когда поисковая система:
Если сайт закрыт от индексации, то для Яндекса и Google его как будто почти не существует.
Это самая частая причина.
Когда сайт делают в веб-студии, его часто специально закрывают от поисковых систем, чтобы в индекс не попали:
Это нормальная практика. Проблема возникает, когда после запуска сайта его забывают открыть обратно.
Такое бывает:
Во многих системах управления сайтом есть встроенная настройка запрета индексации.
Например, в WordPress есть опция, которая запрещает поисковым системам индексировать сайт. Если эта галочка включена — сайт может не попадать в поиск.
На WordPress это обычно выглядит так:
Если галочка стоит — её нужно снять.
robots.txtВторая очень частая причина — неправильно настроенный файл robots.txt.
Если в нём прописан запрет на весь сайт, поисковики просто не будут его нормально индексировать.
Например, опасная запись выглядит так:
User-agent: *
Disallow: /
Это означает: запретить индексацию всего сайта.
Если такая строчка стоит без понимания, зачем она нужна, — это критическая ошибка.
Самый простой способ — проверить через поиск Яндекса.
Открываете Яндекс и вводите запрос вида:
site:вашдомен.ru
Важно:
https://Например:
site:example.ru
После этого вы увидите страницы сайта, которые уже есть в индексе.
Так можно быстро понять:
Этот же способ полезен ещё и для диагностики взлома.
Если сайт заражён, в индексе иногда появляются:
Если видите такое — это уже не просто проблема индексации, а повод срочно проверять сайт на взлом и вредоносный код.
Проверка через site: помогает увидеть не только индексацию, но и подозрительные страницы после взлома.
Если сайт уже подключён к Яндекс.Вебмастеру, это вообще лучший вариант для контроля индексации.
Там можно посмотреть:
robots.txt,Это очень полезный инструмент не только для SEO-специалистов, но и для владельцев сайтов.
Если вы ещё не подключали Яндекс.Вебмастер — обязательно сделайте это. Даже базовая информация оттуда уже может помочь понять, почему сайт не растёт в поиске.
Вот простой чек-лист:
robots.txt полного запрета через Disallow: /site:вашдомен.ruИногда владельцы сайтов путают две ситуации:
Это когда страниц вообще нет или почти нет в поиске.
Это уже другая история:
Поэтому сначала нужно понять базу:
сайт вообще открыт для поисковиков или нет?
Если сайт долго не появляется в поиске, не спешите думать, что “SEO не работает”. Очень часто проблема в другом: сайт просто закрыт от индексации.
Проверьте:
robots.txt,site:домен,Это базовая техническая проверка, которую стоит делать сразу после запуска сайта и после любых серьёзных доработок.
Если хотите, мы можем:
robots.txt и настройках CMS,Посещая данный сайт, вы понимаете и соглашаетесь с тем, что ваши персональные данные обрабатываются на сайте с целью его функционирования и предоставления вам имеющихся на нём сервисов. В случае несогласия с обработкой ваших персональных данных на сайте вам следует незамедлительно покинуть его.