- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
есть страницы по ошибке дабл контент получился.
как вычистить индекс гугла? все разом улетели в supplemental...
кеш обновляется, повесили 301 с дублей, толку мало...
есть страницы по ошибке дабл контент получился.
как вычистить индекс гугла?
Запрет лишнего через robots.txt отрабатывается достаточно быстро.
Запрет лишнего через robots.txt отрабатывается достаточно быстро.
и что на самом деле происходит?
гугл прочитав роботс, страница (в моем случае это 100% дубли страниц) вылетает из индекса?
есть 100-200 страниц которые висят в индексе, при запрещении роботом пару месяцев назад.
есть инструмент удаления контента. вот он работает быстро.. но страниц реально не должно быть и зависит от формата урл ( Если кривой то прийдется руками по 1 удалать.
Ну и поакуратнее с ним...
http://services.google.com:8882/urlconsole/
Ну или ставить таги.. тоже пишет что быстро выкидывает, но не пробовал.
и что на самом деле происходит?
гугл прочитав роботс, страница (в моем случае это 100% дубли страниц) вылетает из индекса?
Да, уходит из индекса. Насколько быстро - не знаю.
Но по 301 ошибке эти страницы уйдут из индекса, ждать надо.
У меня за две недели практически все ушли - клеил c www и без. Т.е. 301 редирект с site.ru на www.site.ru. До этого часть было где-то 1500 с www и более 2000 без www.
А по robots.txt не всегда можно запретить без изменения скриптов.
Да, уходит из индекса. Насколько быстро - не знаю.
Но по 301 ошибке эти страницы уйдут из индекса, ждать надо.
У меня за две недели практически все ушли - клеил c www и без. Т.е. 301 редирект с site.ru на www.site.ru. До этого часть было где-то 1500 с www и более 2000 без www.
А по robots.txt не всегда можно запретить без изменения скриптов.
у меня по ошибке получилось для определенной группы страниц два урл в индексе.
в некторых группах завели 301 редирект с ошибочного на норльмальный - месяц назад - не помогло.
есть 100-200 страниц которые висят в индексе, при запрещении роботом пару месяцев назад.
выпали с индекса пару месяцев назад?
Ну или ставить таги.. тоже пишет что быстро выкидывает, но не пробовал.
какие тэги? огласите весь список :)
есть инструмент удаления контента. вот он работает быстро.. но страниц реально не должно быть и зависит от формата урл ( Если кривой то прийдется руками по 1 удалать.
Ну и поакуратнее с ним...
http://services.google.com:8882/urlconsole/
т.е. должна быть 410 ошибка вместо страницы? я так понимаю...
Как удалить содержание из индекса Google? Обратитесь к первоисточнику: http://www.google.com/support/webmasters/bin/answer.py?answer=35301&topic=8459
т.е. должна быть 410 ошибка вместо страницы? я так понимаю...
должна быть 404, и уж потом удаляйте сервисом от гугля, приведенным, выше
я так чистил индекс, все нормально прошло.