- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В общем: на тур.сайте есть для каждого города страны несколько страниц по отелям (фотка и перечень услуг), не несущих никакой пользы в плане сео. Решил я закрыть их от индексации, но вот в каком виде адрес таких страниц:
***.ru/tour/italy/roma/info/31.html
Не подскажите, как можно их запретить к индексации, кроме перебора всех городов всех стран и не обращаясь к .htaccess и заголовкам страниц?..
Что, никто не знает?
31.html 32.html и т.д.
Или как? Покажи систему страниц.
Система тупая:
31 - это всего лишь id отеля, то есть, к примеру, 32 может быть уже у отля в Лондоне, а 33 у Парижского:
***.ru/tour/england/london/info/32.html
***.ru/tour/france/paris/info/33.html
В общем: на тур.сайте есть для каждого города страны несколько страниц по отелям (фотка и перечень услуг), не несущих никакой пользы в плане сео. Решил я закрыть их от индексации, но вот в каком виде адрес таких страниц:
По-моему это как раз очень даже важные страницы в плане Сео - там есть низкочастотники на которых можно поднимать трафик(могут искать например услугу) или же продвижение фоток кстати здесь была ветка как это делать !!
к таму же насколько мне известно роботы и так с трудом ходят на такие многоуровневые урлы...
но, а если таки решил закрыть без использования .htaccess то это можно сделать
Если вынести все эти страницы в одну папку - то можно закрыть черев robot.txt
Можно использовать атрибут <a href=".ru/tour/italy/roma/info/31.html" rel="nofollow">
Фото Рима
</a> единственное это работает скорее всего только для гугла и я не уверен что эта страница не будет проиндексирована.
прочитать про это можно тут например: http://blogs.byte-force.com/xor/archive/2005/01/21/457.aspx
на конец можно использовать тег <noindex>ccылка</noindex> правда не уверен вовсе есть ли такой тег и работает ли он
и для каких роботов - но может и есть!!!
lemes, все страницы уже в индексе и всё что Вы написали в связи с этим бесполезно.
Нужно всю папку info запретить?
Тогда стирай их всех оттуда, потом в яндексе удаляй.
Потом Disallow: /tour/england/london/info/
Блин, harvester, Вы мне Америку открыли!
Написано же: кроме перебора всех городов!