- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
есть страницы по ошибке дабл контент получился.
как вычистить индекс гугла? все разом улетели в supplemental...
кеш обновляется, повесили 301 с дублей, толку мало...
есть страницы по ошибке дабл контент получился.
как вычистить индекс гугла?
Запрет лишнего через robots.txt отрабатывается достаточно быстро.
Запрет лишнего через robots.txt отрабатывается достаточно быстро.
и что на самом деле происходит?
гугл прочитав роботс, страница (в моем случае это 100% дубли страниц) вылетает из индекса?
есть 100-200 страниц которые висят в индексе, при запрещении роботом пару месяцев назад.
есть инструмент удаления контента. вот он работает быстро.. но страниц реально не должно быть и зависит от формата урл ( Если кривой то прийдется руками по 1 удалать.
Ну и поакуратнее с ним...
http://services.google.com:8882/urlconsole/
Ну или ставить таги.. тоже пишет что быстро выкидывает, но не пробовал.
и что на самом деле происходит?
гугл прочитав роботс, страница (в моем случае это 100% дубли страниц) вылетает из индекса?
Да, уходит из индекса. Насколько быстро - не знаю.
Но по 301 ошибке эти страницы уйдут из индекса, ждать надо.
У меня за две недели практически все ушли - клеил c www и без. Т.е. 301 редирект с site.ru на www.site.ru. До этого часть было где-то 1500 с www и более 2000 без www.
А по robots.txt не всегда можно запретить без изменения скриптов.
Да, уходит из индекса. Насколько быстро - не знаю.
Но по 301 ошибке эти страницы уйдут из индекса, ждать надо.
У меня за две недели практически все ушли - клеил c www и без. Т.е. 301 редирект с site.ru на www.site.ru. До этого часть было где-то 1500 с www и более 2000 без www.
А по robots.txt не всегда можно запретить без изменения скриптов.
у меня по ошибке получилось для определенной группы страниц два урл в индексе.
в некторых группах завели 301 редирект с ошибочного на норльмальный - месяц назад - не помогло.
есть 100-200 страниц которые висят в индексе, при запрещении роботом пару месяцев назад.
выпали с индекса пару месяцев назад?
Ну или ставить таги.. тоже пишет что быстро выкидывает, но не пробовал.
какие тэги? огласите весь список :)
есть инструмент удаления контента. вот он работает быстро.. но страниц реально не должно быть и зависит от формата урл ( Если кривой то прийдется руками по 1 удалать.
Ну и поакуратнее с ним...
http://services.google.com:8882/urlconsole/
т.е. должна быть 410 ошибка вместо страницы? я так понимаю...
Как удалить содержание из индекса Google? Обратитесь к первоисточнику: http://www.google.com/support/webmasters/bin/answer.py?answer=35301&topic=8459
т.е. должна быть 410 ошибка вместо страницы? я так понимаю...
должна быть 404, и уж потом удаляйте сервисом от гугля, приведенным, выше
я так чистил индекс, все нормально прошло.