Через сколько времени вы снимаете ссылки со страницы выпавших из кеша Яндекса

юни
На сайте с 01.11.2005
Offline
933
#21
Sattt:
Логично предположить, что ссылка с основного индекса работает лучше.

C чего Вы взяли? А если Гугл брать, какие там зависимости рабочести от саплиментал?

Sattt:
А пока не доказано обратное

А уже доказано само утверждение? Кем и когда?

Опять же, Вы ведь в курсе, сколько ссылающихся страниц показывает Гугл?

https://searchengines.guru/ru/forum/944108 - прокси-сервис на базе операторов домашнего интернета, сотни тысяч IP-адресов, канал от 20 Мбит
Nervill
На сайте с 15.10.2010
Offline
15
#22
rast:


С 12к ссылок (а также страниц) за 2 недели выпадает стабильно 200-300 страниц из индекса. Смысл платить за говностраницы?

Да, смысл платить за 12к говностраниц?? Купить 100 ссылок вручную у вебмастеров нормальных проектов. Сэкономите время и нервы.

---

Соглашусь с юни, "не верь глазам своим". Мы смотрим через маленькую дырку на все эти ссылки, видимости и индексацию.

<°((((<<
Sattt
На сайте с 12.04.2008
Offline
131
#23
юни:
C чего Вы взяли? А если Гугл брать, какие там зависимости рабочести от саплиментал?

Саплиментал гугла это всё же индекс, в котором можно искать. У яши такого нет, насколько я знаю. То что остается НПС и робот продолжает ходить на сайт, абсолютно не доказывает действие ссылки.

P.S. Понятное дело, что в идеале ссылками лучше не мигать, даже если страница выпала. Но мы ведь о сапоссылках говорим, за которые нужно платить.

alfalaval
На сайте с 15.10.2010
Offline
64
#24
юни:
alfalaval, а Вы, соответственно, проверяли и убедились, что не работает?

Основания простые - нет никаких причин утверждать, что существует корреляция между видимостью документа и/или ссылки в этом документе (каким бы образом эта видимость не проверялась) и анкорной эффективностью этой ссылки.

Более того - поскольку ПС постоянно усложняют алгоритмы, ужесточают санкции и затрудняют анализ методов воздействия на них, то логично предположить, что не только отсутствует связь "видимая=рабочая" ссылка, но и, напротив, в индекс выкладываются документы, ссылки с которых обладают нулевой или минимальной эффективностью.

Одиннадцатый год на дворе, давно пора уже включать голову. Кроме того, косвенную эффективность можно отслеживать иными методами.

я никого не хочу обидеть, но это из серии "таки почему вы отвечаете вопросом на вопрос?";)

если по делу - то это сравнительно убедительная логика + отсутствие доказательств.

и здесь надо разделить две темы отдельных:

п.1:- мы говорим о том, чтобы не снимать выпавшие бэки т.к. они тоже передают некое влияние

или

п.2:- мы говорим о том чтобы не снимать выпавшие бэки чтобы убедить алгоритм в том, что остальные/все в целом бэки менее вероятно "продажные"

если речь о п.1, то, насколько я понимаю есть только один способ это проверить - купить бэков со страниц не в индексе и отследить изменения в ранжировании на сравнительно большой выборке. кто нибудь это делал?

если речь о п.2, то это априори недоказуемо, имхо, хотя и заставляет задуматься, т.к. логика, повторюсь, у Юни довольно убедительная)

komdir
На сайте с 14.10.2009
Offline
430
#25
юни:
Что обозначает этот термин?

И что?

Вы хотите сказать, что страница, выпавшая из индекса/кеша ... - больше не работает на ссылочное ранжирование?

Через определенный промежуток, при условии не возврата в индекс, да не работает:)

юни
На сайте с 01.11.2005
Offline
933
#26

komdir, когда, кем, на каких сроках и объемах данных, и в каких условиях, обеспечивающих чистоту эксперимента, это проверялось?

Sattt:
То что остается НПС и робот продолжает ходить на сайт, абсолютно не доказывает действие ссылки.

С какой ещё тогда целью ходит робот, например, по забаненным сайтам, по Вашему?

Sattt:
это всё же индекс

Без разницы.

Проиндексированность страницы показывает, что ПС знают о текстовом, графическом и прочем контенте на ней - и только. Рабочесть размещённых в документе ссылок - это не доказывает никак. Т.е. совершенно.

alfalaval:
+ отсутствие доказательств

С обеих сторон, прошу учесть.

И да, заход робота на забаненный или находящийся под фильтрами сайт - есть показатель рабочести заведомо более достоверный, чем анализ всяких кэшей и индексов.

medea
На сайте с 19.09.2007
Offline
307
#27
юни:


И да, заход робота на забаненный или находящийся под фильтрами сайт - есть показатель рабочести заведомо более достоверный, чем анализ всяких кэшей и индексов.

заход робота на забаненный сайт может осуществляться с целью посмотреть, не исправился ли данный сайт и не пора ли его разбанить. При чем тут рабочесть ссылок, вообще неясно.

Продвижение сайтов (http://www.iqpromo.ru/) под моим присмотром :)
komdir
На сайте с 14.10.2009
Offline
430
#28
юни:
komdir, когда, кем, на каких сроках и объемах данных, и в каких условиях, обеспечивающих чистоту эксперимента, это проверялось?

У меня достаточная выборка и по объему и по времени и по чистоте, что бы в целом делать подобные утверждения.

юни
На сайте с 01.11.2005
Offline
933
#29

komdir, поведенческие факторы - существуют и накручиваются. У Гудмана, Бурундука и Мегасео есть достаточная выборка.

medea:
не исправился ли данный сайт

Робот ходит и по вручную забаненным сайтам, которые автоматом из под фильтра не выйдут никогда.

Кроме того, некоторые типы ресурсов попадают под санкции вообще до захода каких-либо роботов на них. Как такое возможно, есть мысли, кстати?

medea:
При чем тут рабочесть ссылок

Связь прямая - проверяется существование ссылки, участвующей в ранжировании.

Алексей
На сайте с 23.02.2009
Offline
586
#30

если агс то оставляю =). а так 2 -3 апа, от настроения =))).

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий