- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Кто не знает, сегодня в блоге Яндекс.Вебмастера была опубликована запись о новой директиве для robots, позволяющей отфильтровать сессии и прочие "радости" - Clean-param. Кто знает, кто уже воспользовался.
Скажите, плз, правильно ли я понял, что роботс вида:
User-agent: Yandex
Disallow:
Clean-param: oscid /*.html
закроет все сессии, начинающиеся с osCsid (ведь регистр в в роботс не учитывается?)?
Перед html названия страниц - транслит названия товара, т.е. разные.
Анализатор роботс http://webmaster.yandex.ru/wmconsole/public_robots_txt.xml с этим параметрам не работает даже по примерам из хелпа Я.Вебмастера.
В названиях файлов и директорий в роботс регистр нужно учитывать если ваш хостинг на unix.
Директива Clean-param -
http://help.yandex.ru/webmaster/?id=996567#1041216
позволяющей отфильтровать сессии и прочие "радости" - Clean-param.
Типа сами мы не в состоянии, вот вам топор, варите кашу...
Т.е. если я поставлю в соответствии с регистром в любом случае не проиграю?
Просто сайт не мой, какой у них хостинг не знаю.
Хелп читал. Хотелось бы удостовериться в правильности моих выводов.
не проиграете это точно :)
http://help.yandex.ru/webmaster/?id=996567#1041216
Молодцы : )
Действительно:) Возможно будет официально внесено в FAQ по ускорению и повышению эффективности индексации сайта. Вдруг еще Яндекс начнет на этом настаивать. "Круто индексируем тех, у кого все в порядке с передаваемыми параметрами!"
Вообще конечно пока рано говорить... Но тестить начали. Хотелось бы услышать мнение на тему реальной эффективности...
доподлинно известно, что дубли, полу-дубли они умеют определять, но вот алгоритм определения оригинального источника - штука сомнительная.
Попытался в online-анализатор robots.txt (http://webmaster.yandex.ru/wmconsole/public_robots_txt.xml) добавить на проверку один из их примеров:
User-agent: Yandex
Disallow:
Сlean-param: s&ref /forum*/showthread.php
Выдается сообщение: Обнаружена неизвестная директива
Да, та же проблема - копирую пример из фака Яндекса, а яндексовский же анализатор говорит, мол "Некорректный формат директивы Clean-param".
Так чему верить, будет ли работать эта директива?