- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем доброго дня!
Как бы заставить Рамблер выкинуть из индекса наш вид для печати?
Потому как мешает оно (даже не спрашивайте, почему). Когда это заметили (и поставили все ссылки на такие страницы в тег noindex), было уже поздно. Теперь робот-бедняга Рамблера каждый раз проверяет все такие страницы, в мета которой написано черным-по-белому - NOINDEX. Но он все равно продолжает проверять их, не выкидывая из очереди.
Идея следующая: предлагается выдавать на определенные URL'ы (=~ /prn=1$/) 404 Not Found при попадании User Agent'а в особый список.
Противоречит ли это правилам Рамблера?
Иного пути заставить его этого не делать я не вижу.
P.S. Ссылки на вид для печати были обрамлены тегом noindex как минимум в начале июня, сайт уже раза два прошел полную переиндексацию, а прогресса (уменьшения количества запрашиваемых урлов, оканчивающихся на "prn=1") всё не видно.
Противоречит ли это правилам Рамблера?
Не противоречит. Вполне нормальный способ.
Ещё есть способ запретить такие URL в robots.txt.
Запретить роботу Рамблера нужные страницы для индексации файлом robots.txt
в отношении рамблера это практически единственный способ ... можно еще в meta прописать ... мне интересно, сколько на это времени уходит?
Не противоречит. Вполне нормальный способ.
Ещё есть способ запретить такие URL в robots.txt.
AFAIK robots.txt не позволяет запретить индексацию URL'ов по regex'у. Идея выдавать 404 Not Found для плохих роботов мне представляется менее трудоёмкой для программирования, чем генерация robots.txt в условиях моего сайта.
в отношении рамблера это практически единственный способ ... можно еще в meta прописать ... мне интересно, сколько на это времени уходит?
http://www.tool.ru/cgi/view?type=fc&id=2415&prn=1
Висит с момента открытия сайта (02.04.2002) - в отличие от конструкции <noindex><a href="...&prn=1">...</a></noindex> я догадался проставить meta сразу.
Как видим, фиолетово. :-(
P.S. Каждую неделю мне приходит отчет о посещении этого сайта роботами. Робот StackRambler запрашивал вышеуказанный URL не единожды, из чего можно сделать вывод о том, что на meta Рамблеру (пока?) начхать.
Точно, не позволяет.
Да какое тут программирование :)
Полагаю, что безопаснее будет сделать псевдостатику и запретить к индексации какой-нибудь print.html.
некорректный вывод ... он может быть в результатах поиска и отсутствует, но вот если линк есть, то почему бы и не прийти роботу за документом?
BTW, Гугль * понимает
1) Была ошибка - индексировался кусок текста, который идет ДО тэга <META ...>. Получилось, что <TITLE> мы индексировали (он раньше идет по тексту), а остальной текст - нет. Ошибку исправим.
2) NOINDEX означает, что страницу не надо класть в индекс. А скачивать ее и извлекать из нее ссылки - не запрещает. Поэтому робот туда ходить должен.