- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В общем ситуация в следующем, где то полгода назад, вместо карточек(сайт доска объявлений) в индекс полезли все редиректные ссылки на сайты указанные в объявлениях.
И в придачу в выдаче к этой ссылке подтягивает тайтлы сайта на который идет ссылка.
проверил роботс заметил, что нет запрета на индексацию этих ссылок(потому как до этого менял сам шаблон этих ссылок) - добавил запрет, проверил в вебмастерс все работает.
Но вот с индекса до сих пор страницы не ушли.
Как это исправить?
еще немного подождать, если конечно правильно все в robots закрыли :)
еще немного подождать, если конечно правильно все в robots закрыли :)
закрыл точно правильно - проверил в вебмастерсе. Просто времени уже не мало прошло, а вот реакции пока никакой...
Webmaster Google - нужный вам сайт - пункт меню - Индекс Google - удалить URL-адреса, удаляет обычно в течение нескольких дней.
Webmaster Google - нужный вам сайт - пункт меню - Индекс Google - удалить URL-адреса, удаляет обычно в течение нескольких дней.
запрос постранично нужно добавлять, а у меня их не мало (
Можно указать как категорию /категория* - удалит все страницы категории, вроде как-то удалял именно таким способом, т.е. по определенной маске что ли, давно было( или /категория/* - точно не помню.
Гугл не сразу удаляет с индекса, но удаляет. Попробуйте заново дать на пересмотр роботс.тхт. У меня была страница выпала с индекса, после изменил роботс.тхт, дал на пересмотр. Ждал неделю, вернулась. Все еще зависит от ресурса, думаю, что популярные он быстрее обходит
Чтобы не создавать темы левые, подскажите, пжл.
Заблокировал в роботс.тхт ссылку типу:
\article\odin-dwa-
а теперь гугл заблокировал ссылку \article\odin-dwa-tri-chet
Описание недоступно, причина в роботс.тхт.
Почему заблокирована ссылка, которую не запрещял. причина в частичном совпадении адреса? Но не использовал *.
Вы попробуйте canonical прописать еще. Думаю ,что поможет.
В общем ситуация в следующем, где то полгода назад, вместо карточек(сайт доска объявлений) в индекс полезли все редиректные ссылки на сайты указанные в объявлениях.
И в придачу в выдаче к этой ссылке подтягивает тайтлы сайта на который идет ссылка.
проверил роботс заметил, что нет запрета на индексацию этих ссылок(потому как до этого менял сам шаблон этих ссылок) - добавил запрет, проверил в вебмастерс все работает.
Но вот с индекса до сих пор страницы не ушли.
Как это исправить?
Через метатеги попробуйте закрыть ссылки и тайтлы http://google.utk.edu/ut-help/googleongoogleoff/. На моем сайте это работает.
проверил роботс заметил, что нет запрета на индексацию этих ссылок(потому как до этого менял сам шаблон этих ссылок) - добавил запрет, проверил в вебмастерс все работает.
Сколько уже было таких тем. Файл robots.txt запрещает сканирование, а не индексирование. Если все так, как написано, то они возможно никогда и не уйдут из индекса, т.к. они в индексе, а робот уже просто их не видит, ему запрещено. Тут 2 варианта:
1) Оставить запрет в robots.txt и в WMT вручную сделать запрос на удаление. За сутки должно все почистить.
2) Убрать запрет в файле, и прописать теги noindex.
Заблокировал в роботс.тхт ссылку типу:
\article\odin-dwa-
По умолчанию директива Disallow: /page равнозначна директиве Disallow: /page*, поэтому нужно как-то думать в сторону allow. Не помню, кстати, Google воспринимает в роботсе $ как окончание строки?