Карта сайта (sitemap) упрощает навигацию для пользователей и помогает поисковым роботам быстрее находить и анализировать контент. В статье приведены инструкции по созданию XML и HTML-карт, их настройке и интеграции с поисковыми системами.
В Maximus Media к нам регулярно обращаются клиенты с одной и той же проблемой: «Мы добавили на сайт 50 новых страниц, а в Яндексе их нет. Уже месяц прошел». Первый вопрос, который мы задаем: «У вас есть sitemap.xml?» В восьми случаях из десяти ответ: «А что это?»
Карта сайта — одна из тех вещей, о которых знают все сеошники и почти никто из владельцев бизнеса. При этом ее отсутствие может стоить месяцев ожидания, пока поисковик найдет ваши страницы. А неправильная настройка создает проблемы, о которых вы даже не подозреваете.
Сегодня разберем все: что это, зачем нужно, как создать, куда добавить, и какие ошибки допускают чаще всего. Без заумных терминов, с конкретными инструкциями.
Карта сайта (sitemap) — это файл, в котором перечислены все страницы вашего сайта, которые должны попасть в поисковую выдачу. По сути, это справочник для поискового робота: «Вот мой сайт. Вот все его страницы. Заходи, смотри, индексируй».
Без карты робот тоже найдет ваши страницы. Он ходит по ссылкам: заходит на главную, находит ссылки на разделы, из разделов переходит на подразделы и так далее. Но этот процесс медленный и ненадежный. Если какая-то страница не связана ссылками с остальным сайтом (или связана через три-четыре клика), робот может ее не найти. Или найти через несколько месяцев, когда момент уже упущен.
С картой сайта все просто. Робот скачивает файл, видит полный список страниц и их приоритет, начинает обход. Новые страницы попадают в индекс быстрее, ничего не теряется. Считайте, что это оглавление книги для поисковых систем.
Аналогия из реального мира: представьте, что вы пришли в огромный торговый центр без указателей и схемы этажей. Вы будете бродить по коридорам, находить магазины случайно, часть из них пропустите. А если на входе есть карта с указанием всех магазинов — вы сразу пойдете туда, куда нужно. Sitemap.xml — это та самая карта на входе, только для поисковых роботов.
Это основная карта. Технический файл в формате XML, предназначенный для поисковых роботов. Люди его не видят (если специально не откроют). Файл обычно лежит по адресу yoursite.ru/sitemap.xml.
Внутри — список URL-адресов с дополнительной информацией: дата последнего обновления страницы, частота изменений, приоритет. Поисковик использует эти данные, чтобы понять, какие страницы сканировать в первую очередь и как часто к ним возвращаться.
Каждая запись в файле содержит: адрес страницы (loc), дату последнего изменения (lastmod), частоту обновления — daily, weekly, monthly (changefreq), и приоритет от 0.0 до 1.0 (priority). Главная страница обычно получает приоритет 1.0, страницы услуг — 0.8, статьи блога — 0.6.
Это обычная страница на сайте со ссылками на все разделы и подразделы. Ее видят посетители. Раньше HTML-карты были стандартом, сейчас их используют реже. Но для больших сайтов с запутанной структурой они до сих пор полезны — помогают людям найти нужный раздел, когда навигация не справляется.
HTML-карта не заменяет XML-карту. Для поисковых систем нужен именно sitemap.xml. HTML-карта — это бонус для пользователей, дополнительный элемент навигации. Если у вас маленький сайт с понятной структурой, HTML-карта вам не нужна. XML — нужна.
Яндекс и Google используют специальных роботов (краулеров), которые обходят сайты и добавляют найденные страницы в индекс. Каждый сайт получает определенный краулинговый бюджет — количество страниц, которое робот готов просканировать за один визит. Без карты робот тратит этот бюджет вслепую: ходит по ссылкам, которые находит, и надеется, что ничего не пропустил.
Карта сайта решает несколько задач:
На практике мы видели ситуации, когда без карты сайта новый раздел из 30 страниц индексировался два месяца. С картой — за 5-7 дней. Разница — колоссальная, особенно если вы запускаете новый продукт или сезонную акцию и каждый день без индексации — это потерянные клиенты.
Технически карта нужна всем. Но есть ситуации, когда без нее совсем плохо:
Для маленького сайта на 10-15 страниц карта не критична, но лишней не будет. Создание занимает 5 минут, а потенциальные проблемы с индексацией она предотвращает на годы вперед.
Если ваш сайт на WordPress, Joomla, Bitrix или другой популярной CMS, карта создается автоматически через плагин или встроенную функцию. Это самый простой и надежный способ.
Для WordPress самый популярный вариант — плагин Yoast SEO. После установки и активации карта создается автоматически по адресу yoursite.ru/sitemap_index.xml. Плагин сам обновляет карту при добавлении новых страниц, удалении старых, изменении контента. Вам не нужно ничего делать вручную. Альтернативы: Rank Math, All in One SEO, Google XML Sitemaps.
Для 1С-Битрикс карта генерируется в разделе «Маркетинг» — «Поисковая оптимизация» — «Карта сайта». Нужно настроить параметры (какие разделы включать, какие исключать) и запустить генерацию. В отличие от WordPress, в Битриксе карту иногда нужно перегенерировать вручную после больших изменений на сайте.
Для конструкторов (Tilda, Wix, Squarespace) карта обычно создается автоматически. Проверьте адрес yoursite.ru/sitemap.xml — если файл открывается и содержит ваши страницы, все в порядке. В Tilda карта генерируется автоматически и обновляется при публикации изменений.
Если CMS не поддерживает автоматическую генерацию, можно воспользоваться онлайн-сервисами. Самые популярные: xml-sitemaps.com, Screaming Frog SEO Spider (десктопная программа, бесплатная версия до 500 URL), sitemap-generator.ru.
Принцип работы простой: вводите адрес сайта, сервис обходит все страницы по ссылкам и создает XML-файл. Вы скачиваете его и загружаете в корневую папку сайта через FTP или файловый менеджер хостинга. Файл должен быть доступен по адресу yoursite.ru/sitemap.xml.
Минус онлайн-генераторов: карту нужно обновлять вручную при добавлении новых страниц. Забыли обновить — новые страницы не попали в карту — робот о них не знает — они не индексируются. Для активных сайтов это неудобно. Для сайтов-визиток, которые обновляются раз в полгода — вполне рабочий вариант.
Для совсем маленьких сайтов можно создать карту вручную. Формат XML простой: корневой тег urlset, внутри — теги url с адресами страниц. Создаете текстовый файл, прописываете URL каждой страницы в нужном формате, сохраняете как sitemap.xml и загружаете в корень сайта.
Мы не рекомендуем этот способ никому, кроме тех, кто точно понимает XML-синтаксис. Ошибка (забытый закрывающий тег, лишний символ, неправильная кодировка) — и карта не работает. А вы думаете, что все в порядке, и удивляетесь, почему страницы не индексируются.
Получить бизнес-план
Создать карту — половина дела. Нужно рассказать о ней поисковикам. Для Яндекса это делается через Вебмастер.
Яндекс начнет обрабатывать карту. В разделе «Файлы Sitemap» вы увидите статус: сколько URL обнаружено, сколько добавлено в индекс, есть ли ошибки. Обработка может занять от нескольких часов до пары дней.
Если в статусе показаны ошибки, не игнорируйте их. Частые причины: невалидный XML, страницы с редиректами или ошибками 404, несоответствие протокола (http вместо https). Исправьте ошибки и перезагрузите карту.
Для Google процедура аналогичная:
Google обычно обрабатывает карту быстрее Яндекса — за несколько часов. В консоли видно количество обнаруженных и проиндексированных страниц. Если есть расхождение (обнаружено 100, проиндексировано 60), стоит разобраться, почему часть страниц не попала в индекс. Причины могут быть разные: дублирование контента, низкое качество страниц, запрет в robots.txt, мета-тег noindex.
За годы работы мы в Maximus Media насмотрелись на десятки некорректных карт. Вот самые частые проблемы.
Вы удалили страницу, но не убрали ее из карты. Робот приходит, видит ошибку 404, отмечает проблему. Если таких страниц много, робот начинает меньше доверять вашей карте. Зачем ему справочник, в котором каждая пятая ссылка ведет в никуда?
Классика: карта была создана при запуске сайта два года назад. С тех пор добавили 200 страниц. Ни одна из них не в карте. Робот знает только о старых страницах, новые ищет по ссылкам (медленно и не все находит). Мы видели сайт, где из 800 страниц в карте было только 120.
Вы закрыли страницу от индексации через robots.txt или мета-тег noindex, но оставили ее в карте. Противоречивый сигнал для робота. Одна инструкция говорит «не индексируй», другая — «вот она, индексируй». Результат непредсказуемый, и краулинговый бюджет тратится на разрешение противоречия.
Одна и та же страница указана в нескольких вариантах: с www и без www, с http и https, со слешем в конце и без слеша. Для робота это разные URL с одинаковым содержимым. Дублирование контента негативно влияет на ранжирование.
Правило: в карте должен быть один канонический вариант URL каждой страницы. Решите, какой формат адреса у вас основной, и используйте только его. Остальные варианты должны перенаправлять на канонический через 301 редирект.
Ограничение — 50 000 URL в одном файле и размер не больше 50 МБ. Если у вас больше, нужно разбить карту на несколько файлов и создать индексный файл (sitemap_index.xml), который ссылается на все остальные.
Страницы с GET-параметрами, страницы фильтров, страницы пагинации — все это часто попадает в карту автоматически. Но индексировать такие страницы обычно не нужно: они дублируют основной контент. Настройте CMS так, чтобы в карту попадали только канонические URL без параметров.
Давайте честно: карта сайта сама по себе не повышает позиции в поисковой выдаче. Она не дает бонусов при ранжировании. Вы не подниметесь на три позиции просто потому, что добавили sitemap.xml.
Но карта влияет на то, попадут ли ваши страницы в индекс и как быстро это произойдет. А индексация — это фундамент SEO. Если страницы нет в индексе, она не существует для поисковика. Ни по какому запросу ее не найдут. Никакие тексты, ссылки и оптимизация не помогут, если страница просто не проиндексирована.
Мы работали с интернет-магазином, у которого из 3 000 товарных страниц в индексе Яндекса было только 800. Причина: сломанная карта сайта (ссылалась на старые URL после редизайна) и проблемы с внутренней перелинковкой. После исправления карты и технического аудита за три месяца в индекс попали 2 700 страниц. Органический трафик вырос на 210%. Это не магия — это просто страницы, которые раньше не существовали для Яндекса, стали видимы.
Файл robots.txt — это инструкция для поисковых роботов: какие разделы сайта можно сканировать, какие нельзя. В этом файле также указывается путь к карте сайта. Одна строка: Sitemap: https://yoursite.ru/sitemap.xml
Эту строку стоит добавить в robots.txt, даже если вы уже отправили карту через Вебмастер и Search Console. Некоторые поисковые системы (Bing, Yahoo, DuckDuckGo) находят карту именно через robots.txt. Лишним не будет.
Важно: robots.txt и карта сайта не должны противоречить друг другу. Если robots.txt запрещает роботу доступ к разделу /catalog/, а в карте указаны страницы из /catalog/, — это конфликт. Робот получает два противоречивых сигнала. Проверяйте согласованность этих файлов.
Помимо обычной XML-карты, существуют специализированные карты для изображений (image sitemap) и видео (video sitemap). Они помогают поисковику быстрее находить и индексировать медиаконтент на вашем сайте.
Для интернет-магазинов карта изображений особенно полезна. Если у каждого товара по 5-10 фотографий, это тысячи изображений, которые могут приносить трафик из поиска по картинкам. Без карты Яндекс может не найти все изображения или индексировать их медленно. Отдельно стоит создать карту для видео, если на сайте есть обучающие ролики, обзоры, вебинары — это дополнительный источник трафика из видеопоиска.
Создать карту и забыть — типичная ошибка. Мы рекомендуем проверять карту сайта раз в месяц:
На практике это занимает 10-15 минут. Но предотвращает ситуации, когда половина сайта выпадает из индекса и вы узнаете об этом через полгода, когда трафик уже рухнул.
Главная особенность — большое количество страниц и частое обновление. Карта должна обновляться автоматически, желательно ежедневно. Разбивайте карту по разделам: отдельная карта для категорий, отдельная для товаров, отдельная для информационных страниц. Отдельная проблема — товары не в наличии. Если товар снят навсегда, настройте редирект на аналог и уберите из карты. Если временно нет в наличии — страница остается в карте.
Новые статьи добавляются регулярно. Карта должна обновляться при каждой публикации. В WordPress с Yoast это автоматически. Для самописных CMS настройте автоматическую генерацию через крон-задание. Также учитывайте даты lastmod — обновляйте их, когда редактируете старые статьи. Это сигнал роботу перепроверить страницу.
Обычно небольшой объем страниц и редкие обновления. Карта создается один раз и обновляется при добавлении новых страниц. Здесь проще всего, но даже тут мы находим сайты без карты в каждом втором аудите.
Если у сайта есть версии на разных языках, в карте используются теги hreflang для указания языковых версий каждой страницы. Это помогает поисковику показывать правильную языковую версию пользователям из разных стран. Без hreflang русскоязычная версия может показываться англоязычным пользователям.
Проверьте, есть ли у вашего сайта карта. Откройте yoursite.ru/sitemap.xml в браузере. Если видите XML-файл со списком URL — карта есть. Если ошибку 404 — карты нет, и это нужно исправить.
Если карты нет — создайте ее. Через плагин CMS или через онлайн-генератор. Загрузите в корень сайта. Добавьте путь в robots.txt. Отправьте в Яндекс Вебмастер и Google Search Console. Весь процесс займет 20-30 минут.
Если карта есть — проверьте ее актуальность. Все ли страницы в ней? Нет ли ссылок на несуществующие страницы? Обновляется ли она автоматически? Совпадает ли количество URL в карте с тем, что показывает Вебмастер?
Это базовая техническая задача, которая часто упускается из виду. А ведь без нормальной индексации вся остальная работа по SEO теряет смысл. Нельзя оптимизировать то, чего нет в поисковой выдаче.
В Maximus Media аудит карты сайта и настройка индексации входят в любой SEO-проект. Это одна из первых вещей, которые мы проверяем. Если вы не уверены, что с вашей картой все в порядке, — напишите нам. Проверим и поможем настроить правильно. Результат: после исправления проблем с индексацией наши клиенты в среднем получают +40-60% проиндексированных страниц за первый месяц.
Мы используем cookies для улучшения вашего опыта на сайте. Для продолжения, пожалуйста, примите нашу политику обработки cookies.