- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вообщем был каталог на сайте, Яша успел скушать приличное количество его страниц, затем каталог был снесен по определенным причинам и теперь вопрос как удалить все лишние страницы из индекса, подскажите плз. кто знает?
При помощи файла robots.txt
/ru/forum/86666
samy, запрещаете индексацию данного раздела при помощи файла robots.txt (как это сделать - в топике по ссылке выше), потом идете в http://webmaster.yandex.ru/delurl.xml и втыкаете туда страницы.
samy, запрещаете индексацию данного раздела при помощи файла robots.txt (как это сделать - в топике по ссылке выше), потом идете в http://webmaster.yandex.ru/delurl.xml и втыкаете туда страницы.
ещё такой вопрос, урлы страниц которые надо удалить выглядят так:
http://www.sait.ru/links/index.php?category=l22 Таких строк там несколько. В связи с этим вопрос, надо запрещать каждую страницу отдельно или просто запретить папку links?
да нет, идете на вебмастер.яндекс.ру, жмете удалить урл, там есть параметр - удалить из индекса либо конкретную страничку, либо каталог. идите посмотрите, там и так все понятно )
Если кроме страниц index.php?category=xxx там нет ничего, быстрее и логичнее всю папку закрыть
samy, логично будет использовать такую конструкцию:
User-Agent: *
Disallow: /links/
Host: основное зеркало
папка-то прибита, судя по всему. 404. можно с роботом и не загоняться. просто направить директиву на удаление из индекса. а можно и не направлять, дождаться переиндексации. ну это для ленивых ))
скажите если на странице Яши для удаления УРЛов я выберу второй пункт:
"удалить весь подкаталог (все URL, начинающиеся с данной строки)
каталог должен быть запрещен в файле /robots.txt", и в файле robots.txt пропишу следующую строку: Disallow: /links/ будет ли это правильным для того чтобы он полностью удалил все страницы идущие после папки links, в том числе и index.php?category=xxx ☝ ?
samy, да, все верно.
всем большое спасибо за помощь и плюсик в репку от меня!)))) ;)