- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт, морду которого я двигал по СЧ запросу. Висел он в топе долго и успешно, но вдруг пропал. Полез разбираться.
В индексе морды нет, но есть страница с урлом типа /?zzz=123, которая является дублем морды. Скрипт сайта написан криво и, как оказалось, есть масса вариантов написания урла, при которых морда дублируется.
Вопрос: откуда в индексе взялся этот дубль?
1) Яндекс сам развлекается передавая рандомом генеренные get параметры? Маловероятно. :)
2) Подстава? Типа кто то (конкурент) нашел багу, поставил где-то линк на эту страницу, яндекс ее съел, морду выбросил и оставил в индексе дубль? Тоже тут много непонятного, на сайте таких ссылок на эту страницу нет, в бэках такой ссылки тоже нет. Через аддурилку точно не добавляли, проверил по логам. И почему яндекс переключися на этот дубль? Он ничем не лучше морды, да и на него ни одной ссылки нет.
Может есть подобные ссылки в навигации или на других сайтах?
Если нет, то похоже руками в адурл добавили
Anton, мне почему то кажеться что ваш скрипт таким образом обрабатывает 404 ошибку возможно подобные.
У вас прописан роботс.тхт?
Можно ли взглянуть на сайт?
Спасибо
как оказалось, есть масса вариантов написания урла, при которых морда дублируется.
это у 99,9% сайтов.
метод борьбы:
# тут пееременные которые могут передаваться скрипту
$array[]="id";
$array[]="see";
foreach ($_GET as $k=>$v)
{
if (!in_array($v,$array))
{
header("location: http://mysite.ru/");
exit;
}
}
если сайт на html то в роботексе запретить
User-Agent: *
Disallow: /?
Да уж. Вот до чего может довести не верное написание скрипта. С самого начала необходимо было делать 404 с редиректом на главную, карту сайта ... это уже как захочется. Теперь только в роботе закрывать страницы такого типа и срочно править скрипт. Интересно конечно каким образом он нашел данную страницу. Как вариант чей-то удавшийся эксперимент 😕 .
Интересно конечно каким образом он нашел данную страницу.
заходишь на главную любого сайта и в адресной сроке дописываешь /?sdff=2 (например, любой бред) и нажимаешь интер, если сервер загрузил опять главную, то смотришь код ответа сервера на данную страницу, если 200 ок и в роботексе нет запрещения Disallow: /? значит можешь скармливать данные страницы Яше, а какую он примет за основную, а какие за дубли (как склеет) это ему решать
Скорее всего просто выпала главная ;) У многих сайтов иногда морды выпадают. Плюс вес такой страницы с левыми параметрами близок к нулю, если только кто-то не напрягся и не придал ей веса больше чем у главной, в чем просто смысла нет...
Скорее всего просто выпала главная
а как появился её дубль?
а как появился её дубль?
Ну с точки зрения системы это отдельная страница. Дубли вроде склеиваются независимо от индексатора и тп. Т.е с задержкой.
Вы имеете доступ к логам Яндекса? ))