- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А вы поглядите на даты кешей этих страниц - наверняка они посещались роботом еще до появления запрещающих директив
Возможно, это так. В свое время это не проверилось, а сейчас уже поздно. Но почему Гугль не удалил весь сайт из кэша, когда обнаружил запрещающий роботс, как это сделал Яндекс?
lika,
Возможно, это так. В свое время это не проверилось, а сейчас уже поздно. Но почему Гугль не удалил весь сайт из кэша, когда обнаружил запрещающий роботс, как это сделал Яндекс?
А если взглянуть на вопрос с такой стороны - когда робот делал последнее обращение к документам, это было разрешено. Теперь обращения ему запрещены. Он их не делает. Но это ведь не ставит вне закона те копии документов, которые он собрал без нарушения директив.
Но это ведь не ставит вне закона те копии документов, которые он собрал без нарушения директив.
Другими словами, все, что попало в кэш Гугля, останется там навсегда?
И заставить его выкинуть из своей бызы документы, запрещенные к индексации, не удастся?
Другими словами, все, что попало в кэш Гугля, останется там навсегда?
И заставить его выкинуть из своей бызы документы, запрещенные к индексации, не удастся?
Да нет, думаю не навсегда. Насчет запрещенных robots'ом не скажу, но замечено, что отдающие 404 страницы сидят в Supplement results довольно долго - месяцами.
Да нет, думаю не навсегда. Насчет запрещенных robots'ом не скажу, но замечено, что отдающие 404 страницы сидят в Supplement results довольно долго - месяцами.
Отсюда можно сделать вывод, что Гугль и Яндекс следуют директивам файла robots.txt по-разному: Яндекс довольно быстро выкидывает запрещенные для индексации документы из базы, Гугль не индексирует запрещенные документы, но из бызы их не вычищает. Или, лучше сказать, вычищает очень медленно: на это уходят месяцы. Так?
А есть ли способ вручную удалить файлы из базы Гугля?
довольно долго - месяцами
Даже больше года иногда.
А есть ли способ вручную удалить файлы из базы Гугля?
http://www.google.com/intl/ru/webmasters/remove.html
Взгляните на примечание.
Alex GT,
Или я неправильно написал роботс?
User-Agent: *
Disallow: /advbanner
Disallow: /go
Вроде неправильно. Папки надо запрещать двумя слэшами: /advbanner/
http://www.robotstxt.org/wc/exclusion-admin.html
Вроде неправильно. Папки надо запрещать двумя слэшами: /advbanner/
Так тоже закроется.
Вроде неправильно. Папки надо запрещать двумя слэшами: /advbanner/
Инструкция в файле site.ru/robots.txt
Disallow: /advbanner
запретит индексацию всего, что начинается с /advbanner. Будет запрещено, например:
site.ru/advbanner - каталог
site.ru/advbanner.html - страница
site.ru/advbannerpage2.html - тоже страница