Вопрос по ПЕРЕиндексации

12
S
На сайте с 08.04.2004
Offline
62
1340

Не думал что придется обратиться к местным гуру, но ВЫ моя последняя надежда. Итак:

Как вывести из кеша кучу неправильно проиндексированных страниц вида (?secondary&page=4&page=0&page=1&page=2)

Что я уже делал:

- 301 редирект на правильные страницы, т.е новых ошибок не должно создаваться.

- сначала запретил в роботс.тхт индексирование этих параметров но потом убрал так как посоветовали спецы из гуглсапорта

- установил теги

<meta http-equiv="Pragma" content="no-cache">

<meta name="robots" content="noindex,nofollow">

- попробовал удалять через инструмент удаление страниц в Инструментах.. но не уверен - правильно ли это. (в итоге это ничего не дает т.к. урл все равно в индексе почемуто)

- домен с ВВВ уже давно редиректит по 301, но в кеше все равно около 6к страниц.. (постепенно но очень медленно уменьшается)

URL сайта или страницы:(осторожно содержимое для взрослых вход от 21г.+) http://pornpaysites.net/

ПОМОГИТЕ КТО ЧЕМ МОЖЕТ!

E
На сайте с 21.09.2009
Offline
283
#1

sawaporn, смотрите последнии советы Удаление информации из результатов поиска Google

New Member
На сайте с 21.12.2008
Offline
211
#2

Та же проблема была, на новом проекте на джумле были миллионы дубликатов.

1) 301 редирект на канонические страницы

2) 404 ошибка на глупые дубликаты(всякий бред)

3) те дубликаты, которые нереально убрать из-за движка или очень тяжело, в коде проставляется <meta name="robots" content="noindex,nofollow">

4) в robots.txt все обозначенное прикрыл

Многое уже ушло, жду остальное, эффект на позициях заметен сразу в положительную сторону.

Раскрутка сайтов (https://seomasters.com.ua/)
S
На сайте с 08.04.2004
Offline
62
#3

Есть идеи как ускорить процесс?

Потому как по 100-200 стр в день это будет около года.

B
На сайте с 15.08.2012
Offline
33
#4

У меня практически похожая ситуация, сайт в индексе пару месяцев, трафика совсем немного было, пока не решил удалить дубли страниц, удалил весь каталог с товарами, привел в порядок ссылки, и отправил новый сайтмап в веб мастер туулс. В результате сайт не индексируеться уже неделю, как будто отправили в бан. Сам не знаю что делать, просто жду и пишу контент.

Willie
На сайте с 08.10.2008
Offline
200
#5
Bloodlight:
У меня практически похожая ситуация, сайт в индексе пару месяцев, трафика совсем немного было, пока не решил удалить дубли страниц, удалил весь каталог с товарами, привел в порядок ссылки, и отправил новый сайтмап в веб мастер туулс. В результате сайт не индексируеться уже неделю, как будто отправили в бан. Сам не знаю что делать, просто жду и пишу контент.

Надеюсь, вы URL каталога с товарами новый сделали? А то удаленный URL не появится 90 дней после удаления (см. хэлп Гугла).

master_jeday
На сайте с 15.05.2010
Offline
231
#6

Если страницы не нужны:

1. Настраиваете 404 на все дубли.

2. Удаляете по шаблону в вебмастере гугла. Из Яндекса должно само вылететь.

Если страницы нужны и их нужно запретить к индексации:

1. Для Яндекса закрыть в роботсе.

2. Удаляете по шаблону в вебмастере гугла.

Дорвеи на заказ с гарантией трафика ( /ru/forum/993918 ) >>> Осторожно, в телеге/скайпе есть клоны! Проверяйте, что общаетесь именно со мной через личку!
B
На сайте с 15.08.2012
Offline
33
#7
Willie:
Надеюсь, вы URL каталога с товарами новый сделали? А то удаленный URL не появится 90 дней после удаления (см. хэлп Гугла).

В гугл отправил на удаление каталог /shop/ после чего поменял каталог на /catalog/ и отправил sitemap. Как думаете через сколько гугл начнет индексацию нового каталога? Или быть может он видит что контент одинаковый на удаленных страницах и на стр. которые в сайтмапе, и не хочет их брать в индекс?

fagot_seo
На сайте с 06.05.2011
Offline
65
#8
Bloodlight:
В гугл отправил на удаление каталог /shop/ после чего поменял каталог на /catalog/ и отправил sitemap. Как думаете через сколько гугл начнет индексацию нового каталога? Или быть может он видит что контент одинаковый на удаленных страницах и на стр. которые в сайтмапе, и не хочет их брать в индекс?

Ох уж этот злой Гугл со своими Пандой и Пингвином))) Не воспринимайте его как мыслящий организм, это всего лишь робот с алгоритмами...

Много раз боролся с дублями страниц в выдаче, хороший вариант это замена урла и редирект с многих старых урлов с дублями на 1 новый. Кэш чистится не сразу и страницы еще повисят некоторое время в соплях. Но это не помешает вам вытянуть страницу в ТОПы )

Автор курса Python для SEO специалиста (http://py4you.com/courses/python-for-seo/) Разработка ПО py4you.com (http://py4you.com/development/)
New Member
На сайте с 21.12.2008
Offline
211
#9
master_jeday:
Удаляете по шаблону в вебмастере гугла.

К сожалению, по шаблону там удалять нельзя. Только каталоги и отдельные страницы.

DV
На сайте с 01.05.2010
Offline
644
#10

Google в своём упорстве странный весьма. Год назад был сайт на Joomla с очень некрасивыми URL. Переделал на Drupal, с ЧПУ. До сих пор в логах сервера запросы робота по старым URL.

sitemap имеется, скормленный в инструментах.

VDS хостинг ( http://clck.ru/0u97l ) Нет нерешаемых задач ( https://searchengines.guru/ru/forum/806725 ) | Перенос сайтов на Drupal 7 с любых CMS. ( https://searchengines.guru/ru/forum/531842/page6#comment_10504844 )
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий