- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А вот остальные (в ближайшее время во всяком случае. А это может быть и месяцы) - уже не факт.
1. при наличии внешней ссылки пойдёт и очень быстро (так на всякий случай, при наличии внешней ссылки он даже на страницу отдающую 404 код ответа будет постоянно ломиться, вдруг страница удалена по ошибке)
2. цпа сети создают подобные url намного быстрее чем робот успевает скачивать ;)
SeVlad, специально для тебя скрин сделал, почти год уговаривал клиента закрыть в роботсе мусор, они отказывались ссылаясь на то что каноникл прописан, закрыли, но правда ещё не всё
P.S. я вообще за то что бы в роботсе было прописано Disallow: /*?
Без ЧПУ для пагинации это плохо закончится (если в пагинации урл-ы генерятся через ?page=)
А так да, тоже поддерживаю что лучше убить через robots чем использовать каноникл.
Напишите любой скрипт, который чего-то скачивает по HTTP, обычно он работает медленно.
Да каноникал-то тут причём?! (наличие тега никак на скорость не повлияет)
Не надо создавать этой возможности. Лучше чтобы не ходила.
Да каноникал-то тут причём?! (внешние ссылки-то кто отменит?)
Если есть возможность (в robots.txt) запретить ПС скачивать, это лучше, чем сначала ПС скачает, а потом убедится
Дык с этим-то никто и не спорит. Каноникал-то тут причём?
1. при наличии внешней ссылки пойдёт и очень быстро (так на всякий случай, при наличии внешней ссылки он даже на страницу отдающую 404 код ответа будет постоянно ломиться, вдруг страница удалена по ошибке)
2. цпа сети создают подобные url намного быстрее чем робот успевает скачивать
Да каноникал-то тут причём?!
закрыть в роботсе мусор,
Да каноникал-то тут причём?
Блииин. Парни, ну чессслово... Вы же сеошники, не я. И технически весьма грамотные. И так мешать каноникал с роботсом..
Вот честно, пытаюсь понять чем же он вам так не угодил, а вы мне всё про киевского дядьку роботсы рассказываете.
Да каноникал-то тут причём?
при том что это абсолютно лишняя конструкция, которая может вызывать серьёзные проблемы проблемы
при том что это абсолютно лишняя конструкция,
Но ведь "лишняя" не всегда и не везде!
Иначе говоря - "если вам не нравятся кошки, то вы просто не умеете их готовить."
Ну пока я вижу так.
которая может вызывать серьёзные проблемы проблемы
Второй день пытаю о проблемах каноникала, а слышу про роботс :)
Второй день пытаю о проблемах каноникала, а слышу про роботс
ещё раз, каноникл не запрещает скачивание документа
каноникл не запрещает скачивание документа
Где Фома и где Ерёма :)
Ок давай ещё разок.
А) ПС, получив урл неканонической страницы с каноникалом на другую скачает (пару сотен кбайт) её первый раз. Во второй уже будет знать, что нефик её качать.
Так?
А собсно, даже если и не так. Это же проблема не каноникала, а движка/вебмастра породившего дубли.
Так?
Б) Мусорные урлы по любому будут запрошены с сервера (говорим только ПС, правильно ж?). Так?
Их обработка может пойти 3мя путями:
1 - отдать "как есть"
2 - сервером/движком откинуть ненужное и выдать чистяк (вариант - отредиректить)
3 - послушаться роботса и не ходить туда.
С третьим всё понятно (допустим, что так оно и есть ;)*).
В первых 2х случаях будет скачана страница. Вне зависимости от наличия там каноникала.
Так?
Но если последний не будет совпадать с запрошенным урлом, то ПС "получит сигнал" и тогда - п А.
Так?
*Ида. Роботс тоже не запрещает скачивание. Как бэ рекомендует, но кто его слушает. Все рекомендации переходят только на выдачу (и то не всегда).
SeVlad, ещё раз вариант а не проходит
1. при наличии внешней ссылки он всё равно её будет постоянно скачивать
2 таких url намного больше чем робот может скачать
робот индексатор прекрасно слушается инструкции в роботсе ;)
вариант а не проходит
1. при наличии внешней ссылки он всё равно её будет постоянно скачивать
2 таких url намного больше чем робот может скачать
Ок. пусть так (поверю на слово :), но не отменяю проблем движка и жопорукости )
Если п2 имеет место быть, тогда, конечно, каноникал будет костылём. Тут проблема системная. От каноникала не зависящая.
В остальных, нормальных случаях, каноникал только помощник. :p
робот индексатор прекрасно слушается инструкции в роботсе
Бедный одинокий бот :) Я думаю, ты ж статсу анализируешь? ;)