Технические ошибки могут мешать поисковым системам корректно индексировать сайт. Поэтому мы провели ряд технических работ.
- Устранение дублей страниц
Из-за GET-параметров на сайте возникали дубли страниц. Это снижает эффективность SEO-продвижения, так как поисковые системы воспринимают одинаковые страницы как разные.
Мы устранили такие дубли, что позволило улучшить структуру индексации сайта.
- Настройка файла robots.txt
Файл robots.txt регулирует, какие страницы должны индексироваться поисковыми системами.
Мы настроили его так, чтобы:
- исключить технические страницы;
- предотвратить индексацию дублей;
- направить поисковые системы на важные разделы сайта.
Был актуализирован файл sitemap.xml, который помогает поисковым системам быстрее находить и индексировать страницы сайта.
Также были настроены базовые редиректы, чтобы сайт корректно работал через одно основное зеркало. Это важно для сохранения SEO-веса страниц.
- Присвоение региональности
Для корректного ранжирования сайт получил региональную привязку, что помогает привлекать пользователей из нужного региона.