- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, господа.
Не могу понять происходящее. Обнаружил в консоли веб мастера в Sitemap Coverage вот такие вот ссылки:
Вот эта ерунда, начинающаяся с /?p% - не моя. У меня нет таких параметров URL.
Однако, её видит бот гугла, и пытается индексировать. Я подозреваю, это сокращает бюджет обхода ссылок сайта роботом, так как вся она в Crawled - currently not indexed. Раз он пытается её обойти, значит, её он где-то нашел.
В консоли если посмотреть источник ссылки, то там в discovery указана предыдущая страница. То есть бот нашел ссылку вида сайт/page/10/?p%25252525... на странице /page/9/?p%25252525..., и так далее.
Собственно, вопрос. Как найти, откуда это берется, и что с этим вообще делать? И надо ли что-то делать?
Здравствуйте, господа.
Не могу понять происходящее. Обнаружил в консоли веб мастера в Sitemap Coverage вот такие вот ссылки:
Вот эта ерунда, начинающаяся с /?p% - не моя. У меня нет таких параметров URL.
Однако, её видит бот гугла, и пытается индексировать. Я подозреваю, это сокращает бюджет обхода ссылок сайта роботом, так как вся она в Crawled - currently not indexed. Раз он пытается её обойти, значит, её он где-то нашел.
В консоли если посмотреть источник ссылки, то там в discovery указана предыдущая страница. То есть бот нашел ссылку вида сайт/page/10/?p%25252525... на странице /page/9/?p%25252525..., и так далее.
Собственно, вопрос. Как найти, откуда это берется, и что с этим вообще делать? И надо ли что-то делать?
в роботсе запретите индексацию
сайт/page/*/?p%*
Вот эта ерунда, начинающаяся с /?p% - не моя. У меня нет таких параметров URL.
Собственно, вопрос. Как найти, откуда это берется, и что с этим вообще делать? И надо ли что-то делать?Надо:
- проверить сам движок, не генерит ли он данную ссылку
- роботс это полумеры, яндекс вначале их будет закидывать в индекс потом выкидывать по правилу роботс
- закрыть совсем /? в файле htaccess. Первые 4 строки, разрешаем использование /?
Все остальное запрещаем. Пример для Wordpress
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{REQUEST_URI} !^/wp-admin/
RewriteCond %{REQUEST_URI} !^/wp-json/
RewriteCond %{REQUEST_URI} !^/wp-login.php
RewriteCond %{REQUEST_URI} !^/index.php
RewriteCond %{THE_REQUEST} \?
RewriteRule ^(.*)$ /$1? [R=301,L]
</IfModule>
* Проверил, не генерит.
* Robots не поможет, да.
* Временно сделал отлуп 403 на эти запросы
Попробую составить белый список того, что движок может отдавать. Остальное буду закрывать.
Спасибо за рекомендации.
Пример для Wordpress
Пример чего там быть не должно.
Попробую составить белый список того, что движок может отдавать. Остальное буду закрывать.
Неужто в роботсе?
Не майся фигнёй - сделай с таких параметров 301. И каноникал пропиши.
Проверил, не генерит
Посмотрите в исходном коде
<link rel='shortlink' href=
Это оттуда ноги растут, судя по URL. Изначальная ссылка
сайт/page/10/?p=28868
А дальше она почему-то URL-кодируется.
Правда, смущает /page/10/ - но мало ли какие чудеса...
Это оттуда ноги растут, судя по URL. Изначальная ссылка
Не оттуда. Каноникал прописан правильно.
Пример чего там быть не должно.
Неужто в роботсе?
>>Неужто в роботсе
Настройками сервера
>>Не майся фигнёй - сделай с таких параметров 301. И каноникал пропиши.
И так всё прописано.
--------------
Вот что я нарыл.
Что я думаю. Где-то затесалась ссылка с таким параметром со стороннего сайта, форума, да откуда угодно. Робот прошёл по ней, и нашел их все.
Это ошибка в WordPress, такого не должно быть. Ни при каких условиях не должны меняться ссылки в коде страницы.
Чтобы вы понимали, о чём я, я прикладываю скриншоты. Посмотрите, как работает движок с параметрами запроса.
Каноникал прописан правильно.
При чём здесь каноникал вообще?
Попробовал на паре сайтов - нет такого.
Простите, про каноникал было другому участнику дискуссии (SeVlad), просто я поломал разметку в своем ответе
Попробовал на паре сайтов - нет такого.