- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
У меня ламерский вопрос, но всё же...
Есть сайт www.сайт.com с проиндексированными страницами (как в Google, так и в Яндексе)
Возникла необходимость закрыть несколько разделов (т.е., прибить их физически)
Естественно, в файле "robots.txt" я прописал:
User-Agent: *
Disallow: /раздел1/
Disallow: /раздел2/
Disallow: /раздел3/
Но... прошло уже прилично времени (файл robots.txt был выложен 13.02.2004) а страницы как Ленин продолжают жить. А ведь я даже воспользовался опцией "Удалить страницу (URL)" на Яндексе, чтобы вычистить ссылки из базы
Что не так ? Кто-нибудь подскажет ?
Если я в страницах, которые собрался удалять, пропишу META-тэги с параметрами для роботов "NOINDEX, NOFOLLOW", это вылечит ситуацию ?
Мне надо до конца месяца удалить страницы, т.к. сайт переезжает на другой хостинг
Заранее спасибо за ответы
...в Яндексе...
Здесь...
http://yandex.ru/removeurl.html
Я полагал, что для удаления через "Удалить страницу (URL)" необходимо физическое отсутствие страниц. А тегами и robots.txt можно добиться только того, что поисковик заморозит в БД эти страницы.
Нет, не заморозит. Удалит.
Нет, Ayavryk, для удаления страниц достаточно запрета в robots.txt, мет или соответствующего отклика сервера.
http://yandex.ru/removeurl.html
Ага. Именно так и сделал. Он (Тындекс) мне написал что-то в духе: "Ваша страница будет удалена из базы по мере обхода нашим роботом". Прошло 2 недели, а страница "живее всех живых".
Полюбил её Яндекс, наверное. Но всё равно надо физически её прибить. Только посетителей в данном случае жаль. Будут на пустое место приходить.
Может в саппорт написать ? Что посоветуете ?
www.tyndex.ru однако
😮
Ну, значит робота пока не было.
Я вот только не понял - зачем? Переезжайте на другой хостинг, пожалуйста, что вам мешает?
Будем ждать, спасибо. Только вот долго он ходит, однако. Я понимаю, что сайт физически в Штатах лежит, но всё же. GoogleBot и тот не дошёл
Я неточно выразился. Просто ряд страниц потерял актуальность, информация устарела. Держать "мусор" в Сети не хочу. Даже из-за внешних ссылок
Народ.. кто-то когда-то кидал ссылку на страницу, на которой были написаны правила составления роботс.тхт
киньте плиз еще раз, а то я ее потерял 8((
http://www.webmascon.com/topics/adv/8a.asp