- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет, друзья!
Есть сайт и тема Wordpress.
На сайте есть около 100 урлов с информацией такого вида:
https://site/forum/topic/name/
Различие этих 100 страниц только в окончании "name"
Но вот не задача, на страницах есть возможность отфильтровать блоки информации и создаются, а главное попадают в индекс Гугла еще 3 такие страницы для каждой из 100:
https://site/forum/topic/name/?info_type=all
https://site/forum/topic/name/?info_type=left
https://site/forum/topic/name/?info_type=right
получаются дубли.
в Robots.txt "?info_type" эта конструкция заблокирована и со стороны Яндекса нет проблем с индексацией.
А вот Гугл наидексировал сотни таких страниц. В качестве санкций (я так полагаю) снял Рич Сниппет со всего сайта и понизил позиции, так что трафик с Гугла обвалился примерно на 66%.
И вроде я лажу по Гугл Консоли и нет никаких ошибок, претензий со стороны Гугла к моему сайту, но есть свыше 200 предупреждений. Скрины ниже.
Есть мысли как-то программно или через функцию прописать <meta name="robots" content="noindex,nofollow"> для страниц вида:
https://site/forum/topic/name/?info_type=all
https://site/forum/topic/name/?info_type=left
https://site/forum/topic/name/?info_type=right
???
Я как-то думал поначалу, "Предупреждение" - ничего страшного, но пришел к выводу, что это все-таки тоже весомый аргумент для Гугла
Есть мысли как-то программно или через функцию прописать <meta name="robots" content="noindex,nofollow"> для страниц вида:
Есть. У вас установлен какой-то сео плагин? Какой?
Есть. У вас установлен какой-то сео плагин? Какой?
Да, конечно! Yoast SEO. Что за мыслишка?
Conan Varvar, Добавить такой фильтр:
Код можете добавить в functions.php вашей темы или создайте плагин, чтобы robots не зависил от текущей темы.
---------- Добавлено 22.08.2019 в 17:01 ----------
noindex, follow будет установлен ко всем страницам у которых есть ?info_type в url.
не устанавливается ни к одной из 4 вариаций страниц. 😒
Может имеет значение, что эта часть сайта установлена в папку основного сайта (2 движка Wordpress на одном домене), т.е. сюда https://site/forum и плагин Yoast SEO для нее установлен для нее свой. Добавил ваш код в functions.php именно в движок с темой на /forum/
---------- Добавлено 22.08.2019 в 17:41 ----------
Gerga, ой, извини, за дезинформацию) Все работает отлично, я ступил при установке кода, только сейчас нашел)