- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сейчас на проекте такая ситуация есть порядка 700 страниц тегов, стоить директива Disallow: /tag/
в робот.тхт
но при этом они в индексе и гугла и яндекса
https://www.google.com.ua/search?q=site%3Asantshop.ru+tag
site:santshop.ru tag
для яндекса аналогично.
Был провал по трафику с 22.04 по 09.05 скрины прилагаю, яндекс отписал что фильтров нет. С 10 вернули позиции и немного повысили.
подскажите бывалые оптимизаторы:
В моём случае теги это точки входа и их надо оставлять открытыми?
Или это частичные дубли и надо их закрывать?
До этого с тегированием не сталкивался, везде по разному пишут.
Если страницы с тегами имеют свои уникальные h1,title, description и на таких страницах не дублирующийся контент - почему бы и не оставить такие страницы и посмотреть будет ли трафик?
Хуже точно не будет.
закрыл страницы дублей в rel="canonical" - оставил страницы тегов в индексе будем смотреть