Необычные изменения с индексацией в Google.com

TC
На сайте с 13.05.2013
Offline
90
964

Приветствую, коллеги)

Уже с месяц наблюдаю странную картину с зарубежным проектом: после публикации на сайте отправляю страницу на индексацию через Search Console. На этом этапе все в порядке, страница благополучно попадает в индекс через положенное время. А вот на следующий день страницы в индексе уже нет. Еще день - страница снова в индексе и уже никуда не пропадает, занимая свое место в выдаче. У конкурентов ровно та же проблема. При этом аналогичный проект под РФ подобных проблем не имеет, никаких вылетов из индекса, хотя модели сайтов идентичны.

Если кто-то наблюдал подобное - делитесь наблюдениями.

A
На сайте с 25.10.2014
Offline
99
#1

Имеет и в RU. Всё тоже самое. Гугл меняет модель обращения с сайтами, уже писалось неоднократно, что не всё будет в индексе. Поскольку процесс автоматический, то лес рубят, щепки летят. Хорошие страницы останутся, говно уйдёт. Как любят писать в Яндексе: найдётся всё, но со временем.

MO
На сайте с 27.03.2013
Offline
25
#2

Тоже наблюдаю такую картину в течении почти 2-х месяцев на двух русскоязычных и одном англоязычном сайтах. Вначале думал, что страницы попадают в "сопли", однако это не так, или не совсем так. даже если это и сопли, то какая то новая версия. По крайней мере, делал так: когда замечаю страницу вылетевшую из индекса, пихаю ее в аддурилку, и вуаля она снова влетает в индекс.

С чем все таки связана эта проблема не могу понять, т.к контент на страницах ,которые мерцают в индексе гугла - уникальный копирайт, соответствует тематике, сайты ссылками не торгуют, фильтров не наблюдается.

Если кто тоже сталкивался с такой проблемой и знает хоть какую то часть алгоритма и по каким критериям выбираются страницы гуглом для того, что бы их выкинуть из индекса - очень буду благодарен, если поделитесь.

calvin2003
На сайте с 31.08.2007
Offline
104
#3

В google.com.ua такого вроде не замечал

Мемори
На сайте с 11.11.2012
Offline
105
#4

есть такое дело, как ни странно (так мне показалось, только imho) голый уник в таких случаях может и вредить, лучше его разбавить умеренно копипастом и ссылками НА топовых лидеров тематики, аналитикой и ютубом.

MO
На сайте с 27.03.2013
Offline
25
#5
Мемори:
есть такое дело, как ни странно (так мне показалось, только imho) голый уник в таких случаях может и вредить, лучше его разбавить умеренно копипастом и ссылками НА топовых лидеров тематики, аналитикой и ютубом.

Хм... Мои наблюдения подтверждают ваше "imho" - в моем случае выпавшие из индекса страницы имели голый уник 100% Но если это так, то тогда налицо абсурдность данного алгоритма/части алгоритма и расхождение его с общей политикой гугл в отношении контента, которое гласит о том, что контент должен быть уникальным, тематическим и полезным и тогда должно быть счастье..

Мемори
На сайте с 11.11.2012
Offline
105
#6

ну да алгоритм он сам себе на уме... думаю 100% уникальность и полезность в некоторой мере противоречат друг другу... с точки зрения алгоритма... ведь множественный копипаст как раз в некоторой мере подтверждает или является признаком полезности, копируют значит оно им этим людишкам зачем-то нужно, т.е. полезно, думает нейронная сеть гугла :) Сссылки на авторитетов это признак полезности из мира научных публикаций, там принято давать в конце статьи обширный список источников и схожих иследований, ну и в википедии тоже также, в конце мощной полезной статьи обязательно несколько десятков ссылок... компьютерный разум гугла скорее всего это осознает...

A
На сайте с 25.10.2014
Offline
99
#7

Это уже какие-то дебри фантазий. Ищите новость, где-то на инглише была.

Чисто технически идёт разгрузка индекса от лишнего. Гугл учится склеивать и выкидывать.

Кому-то повезло, кому-то не повезло. Ничего личного, антиукникального и прочей поросятины там нет. Одновременно с этим и лимитируется кол-во запросов на сайт. Это одна сторона медальки. А другая - если страницы нет в индексе, запрошенном через site или по url из Урюпинска, это не значит, что её нет в Москве. Это тоже сложный и автоматический процесс, который только-только отлаживается. Именно поэтому в Сёрч консоли до сих пор нельзя посмотреть список проиндексированных страниц, только кол-во, потому что меняется вообще принцип выдачи, гугл отсекает все левый действия и нагрузки.

Вот и всё.

Мемори
На сайте с 11.11.2012
Offline
105
#8

имхо мощностей у него переизбыток, вот причина усложнения алгоритмов, мощу девать некуда. Много чего у него в реальном времени работает, без всяких быстророботов как у "я", некоторые удачные доры в 100 тыс. стр. индексируются практически мгновенно. с той скоростью какую хотящий сервер выдерживает, какой уж тут недостаток мощностей у гугла...смешно. То что вы думаете что многофакторный анализ и ранжирование в реальном времени фантазии это ваша личная беда.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий