- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вообщем был каталог на сайте, Яша успел скушать приличное количество его страниц, затем каталог был снесен по определенным причинам и теперь вопрос как удалить все лишние страницы из индекса, подскажите плз. кто знает?
При помощи файла robots.txt
/ru/forum/86666
samy, запрещаете индексацию данного раздела при помощи файла robots.txt (как это сделать - в топике по ссылке выше), потом идете в http://webmaster.yandex.ru/delurl.xml и втыкаете туда страницы.
samy, запрещаете индексацию данного раздела при помощи файла robots.txt (как это сделать - в топике по ссылке выше), потом идете в http://webmaster.yandex.ru/delurl.xml и втыкаете туда страницы.
ещё такой вопрос, урлы страниц которые надо удалить выглядят так:
http://www.sait.ru/links/index.php?category=l22 Таких строк там несколько. В связи с этим вопрос, надо запрещать каждую страницу отдельно или просто запретить папку links?
да нет, идете на вебмастер.яндекс.ру, жмете удалить урл, там есть параметр - удалить из индекса либо конкретную страничку, либо каталог. идите посмотрите, там и так все понятно )
Если кроме страниц index.php?category=xxx там нет ничего, быстрее и логичнее всю папку закрыть
samy, логично будет использовать такую конструкцию:
User-Agent: *
Disallow: /links/
Host: основное зеркало
папка-то прибита, судя по всему. 404. можно с роботом и не загоняться. просто направить директиву на удаление из индекса. а можно и не направлять, дождаться переиндексации. ну это для ленивых ))
скажите если на странице Яши для удаления УРЛов я выберу второй пункт:
"удалить весь подкаталог (все URL, начинающиеся с данной строки)
каталог должен быть запрещен в файле /robots.txt", и в файле robots.txt пропишу следующую строку: Disallow: /links/ будет ли это правильным для того чтобы он полностью удалил все страницы идущие после папки links, в том числе и index.php?category=xxx ☝ ?
samy, да, все верно.
всем большое спасибо за помощь и плюсик в репку от меня!)))) ;)