- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Просмотривал ошибки в логах сервака, заметил, что Гугл заходит на подобные ссылки, пример
/ru/forum/development/web
Дублируется два раза, отдает код 200, грузится та же страница, для решения проблем такого вида существует правило редиректа? Каноникалы сложно настроить на устаревшем движке, все в костылях.
Сталкивался кто нибудь? Забить?
З.ы. на ссылку выше наведите, или в буфер скопируйте, поймете
правило редиректа
По наличию "http" в REQUEST_URI или QUERY_STRING, в зависимости от ситуации. Но лучше движок исправить.
Проверил, REQUEST_URI возвращает такой же дублирующийся адрес, QUERY_STRING переменные, теоретическки с помощью QUERY_STRING можно решить, протестил, даже у Яндекса и Гугла такой косяк срабатывает, если скопировать в конец URL
UPD, нашел в анналах интернета решение для себя
если заканчивается на .html решается так:
RewriteEngine On
RewriteRule (.+?)\.html.+$ https://%{HTTP_HOST}/$1.html [L,R=301]
Если на другое, нужно править под себя.
Может, сами где-то такие ссылки генерите. Ищите и исправляйте. Если найдете и исправите, у ПС оно скорее всего потом само отвалится. Но 200 для таких адресов ненорм. Поэтому лучше тоже исправляйте.
Спасибо всем, для себя решение нашел, но много рандомных сайтов проверил у многих косяк такой, среди внутренних ссылок нет таких косяков, гугл где то их достал) В примере даже у этого форума этот косяк работает, и я сгенерил новую страницу дубль с оригинальным каноникалом
P.S. Яша/гоша тут не показатель. Они на это чихать хотели. Но остальных, естественно, могут дрючить за это.
Да, возможно, ваш сайт позволяет принимать произвольную строку параметров. Если не используете utm-метки и т.п., можно ужесточить форматы используемых адресов, учитывая в них в том числе и строку параметров.
---------- Добавлено 02.12.2019 в 20:32 ----------
В примере даже у этого форума этот косяк работает, и я сгенерил новую страницу дубль с оригинальным каноникалом
P.S. Яша/гоша тут не показатель. Они на это чихать хотели. Но остальных, естественно, могут дрючить за это.
Да, возможно, ваш сайт позволяет принимать произвольную строку параметров. Если не используете utm-метки и т.п., можно ужесточить форматы используемых адресов, учитывая в них в том числе и строку параметров.
Да, давно уже сделал так чтобы левые переменные не подставляли, нужно выписать все переменные используемые на сайте и в массив запихать, и проверку делать, рабочий пример может пригодится кому:
$goodparams = array_flip(array('category', 'source', 'new', 'ran', 'top', 'url', 'word', 'best', 'hits', 't')); // и т.д. массив "хороших" параметров
foreach ($_GET as $param => $value) {
if (!isset($goodparams[$param])) {
header("HTTP/1.0 404 Not Found");
include($_SERVER['DOCUMENT_ROOT'].'/404.shtml');
//безболезненно отдаем 404 ошибку,
//что отнюдь не мешает нам показать юзерю контент
exit();
}
}