Добрый день.
Подскажите каким методом лучше спрятать внешние ссылки на сайте от поисковиков? Если можно, укажите ссылку на реализацию или код.
Планирую использовать на сайте с wordpress
Копните в сторону Exif (учитывает)- очистка от лишних данных, точку ( место) оставить, если это фото- добавление описания процесса
вообще классный подход, просто не считать ботов ботами (как у яндекса подход) и как будто и проблемы нету и спать можно спокойно.
Такой вопрос на просторах интернета ищу информацию о внутренней перелинковке с использованием атрибута nofollow, везде идет отрицательный ответ, но нет конкретного ответа причины.
Пример:
найди древний расчет PR Гугла в зависимости от схем перелинковки. Будет понятно, что данная ссылка увеличивает вес, а не уменьшает
У вас поисковый робот с сайта видать не вылазит совсем. Сайт-портал поди.
Я имел в виду не индексацию непосредственно роботом страницы сайта. А попадание ее в поисковую выдачу.
Утверждать, что без турбы она попадает туда с такой же скоростью, как с турбой, никто не может.
Несколько лет назад выключение турбо-страниц на сайте привело к резкому падению трафа с яндекса. Возможно сейчас яндекс забил на фичу "даешь турбо - даю те траф".
plab #:
Другое дело, что яндекс может поднимать позиции сайтов с турбо и быстрее индексировать новые страницы. Т.е. турбо могут принести дополнительный траф.
Не поднимает позиции с турбо.Турбо обновляется в течении часа. Индексация же обычно происходит в течении нескольких минутТ.е. турбо могут принести дополнительный траф, но не за счет этого.Все работает как и раньше. Да, как то вырубался на пол месяца, все вернулось
Скажите, кто-то сталкивался еще с этой проблемой на других хостингах?
Никогда не сталкивался, так как на сотнях сайтов не использую плагинов защитыВручную все делается. Тогда не будете сталкиваться с неработающим сторонним сервисом. ( есть желание в ЛС )
Так это просто техническая ошибка. Там полные дубли. Или для WP такие ошибки - это норма? 😀
У нормальных разработчиков и дубля "page 1" нет, и тем более дублей "page 2000..." 😉
Для WP данная ошибка норма по default, т.е сайт живет до поры до времени. Нормальные разработчики, изначально, если использует WP, прописывают функцию, чтобы закрыть данные возможные дубли.Технически неграмотные разработчики, на дубли накладывают заплатки, типа каноникал. А, то что таких страниц дублей может быть от 1 до бесконечности, это их как то не волнует. И потом начинают темы плодить: Гугл полгода не индексирует
И ещё не следует его возвращать раньше. (хотя в конце истории всяко возможно)
А где его можно будет использовать (в 'вашей' юрисдикции)?
Вот в этом у меня и проблема, заголовки и описания дублируют страницы с главной. Яндекс нашел 92 страницы, на сайте как раз такое количество.