- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
собственно сабж. нужно что бы удаленная страница не появлялась в выдаче
собственно сабж. нужно что бы удаленная страница не появлялась в выдаче
ПС будем угадывать? Логично, запретить индексировать ее, если документ еще не в индексе. В противном случае, например, для Яндекса через http://webmaster.yandex.ru/delurl.xml, но вылетит не сразу.
http://www.google.ru/search?hl=ru&newwindow=1&client=opera&hs=oJO&rls=ru&q=site%3Aforum.searchengines.ru+%D1%83%D0%B4%D0%B0%D0%BB%D0%B8%D1%82%D1%8C+%D1%81%D1%82%D1%80%D0%B0%D0%BD%D0%B8%D1%86%D1%83+%D0%B8%D0%B7+%D0%B8%D0%BD%D0%B4%D0%B5%D0%BA%D1%81%D0%B0&aq=f&aqi=&aql=&oq=&gs_rfai=
Пытаюсь сейчас решить такой же вопрос, как у ТС.
Нужно удалить ошмётки старой версии сайта. После 2х АПов в поиске всё ещё осталось около 20 страниц. А всего было 30.
На сайте сделана нормальная страница «404». И в результате получается, что сервер не отдаёт 404 ошибку, а перекидывает на эту специальную страницу при помощи 302 редиректа.
Ладно, думаю… пропишу в роботсе: Disallow: /calendar2009.htm
Захожу в упомянутую выше форму, а мне в ответ:
Нет оснований для удаления. Сервер не возвращает код 404, индексирование не запрещено ни в robots.txt, ни метатегом noindex.
Подскажите, плз, что я делаю не так?
evgeny_kostin, показывайте сайт и страницу. Небось, в robots.txt и другие символы есть.
evgeny_kostin, показывайте сайт и страницу. Небось, в robots.txt и другие символы есть.
Сайт: http://www.cfo-audit.ru/
Страница… ну, допустим: http://www.cfo-audit.ru/calendar2009.htm
http://webmaster.yandex.ru/robots.xml пишет, что
URL Результат
http://www.cfo-audit.ru/calendar2009.htm запрещен правилом /calendar2009.htm
Поэтому вам надо писать в суппорт.
Или надо, чтобы за вас кто-то это сделал?
Кстати, а чем у вас отличаются две большие секции. И что делает директива Host в той части, где не Yandex, а * ?
Поэтому вам надо писать в суппорт.
Или надо, чтобы за вас кто-то это сделал?
Нет, просто думал, может это я что-то не так делаю…
Ничем, вопрос религии скорее. Всегда делаю по 2 секции: общую и для Яндекса. Первый Host по ошибке указан, сейчас уберу.
Тогда попробуйте еще раз. Если опять не покатит, то в суппорт.
Да, и строчки
тоже лишние.
А вообще, 302 вместо 404 - это косяк и баг.
Kost, спасибо!
Disallow: /pfr.html — это я сейчас экспериментировал.
Сайту неделя отроду. Есть такие баги пока. Это если из панели управления в хостинге 404 назначать. Надо руками прописать, да…
Kost, я как бы про роботс и сам знаю. но это ж ждать столько... а мне бы побыстрее. и раздел же называется "Любые вопросы от новичков"
повесил 404 и поставил удаляться в ВМТ. как скоро гугл удалит страницу?