- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Для облегчения работы Яндекса или по другим непонятным причинам Яндекс предлагает прописать в robots.txt - host сайт :)
Вроде бы это помогает как Яндексу так и владельцу сайта ;)
Предлагаю публиковать здесь новые директивы (возможные) для файла robots.txt
Может «Яндексоиды» увидят в наших предложениях «себе выгоду» и реализуют их;)
Например,
Директивы:
type (static, dynamic[количество]). Дает понять Яндексу, что сайт статический (динамические урл – недействительны и они могут быть удалены). dynamic[количество] – показывает максимальное количество динамических параметров в урл. Возможно, пригодиться для очистки базы – удаление сессий из урл и прочего…
values (time, volume) – Для некоторых сайтов важно, чтобы информация пользователю подавалась «онлайн» (новостные). Для других сайтов имеющих большой объем (энциклопедии) новизна не важна, важно чтобы Яндекс шел вглубь…
Предлагайте свои варианты, а то что-то на одном «хосте» все и остановилось;)
Предлагайте свои варианты
Задержку delay пусть сделают. А то их быстроробот - настоящий насильник.=)))
Насколько я знаю, в роботс.тхт только 2 "легальные" дерективы:
user-agent и disallow. Все остальное - это выдумки конкретно каждого поисковика. Я лично оставил самый простой роботс.тхт - разрешить все. ИМХО, если пичкать его всякими дериктивами можно какого-то робата сбить и он на сайт не пойдет (я где-то читал такое про иностранные поисковики). А проблема с выбором основного хоста с www или без www легко решается через mod_rewrite.
Не стоит добавлять в robots.txt дополнительных директив, тут с теми, что уже есть, не всегда можно разобраться.
Если уж на то пошло, то ничего не мешает добавить на сайт какой-нибудь yandex-config.txt, в который запихнуть всю необходимую конфигурацию сайта. Пусть только робот Яндекса пользуется этой конфигурацией...