Выпадения 24.11.07

Diversant
На сайте с 29.03.2006
Offline
329
#121
gutako:
Diversant, я уже говорил об этом много раз... Есть "порог индексации" определенный... типа показывать сайты в индексе или нет... Действует определенная совокупность факторов от которых все и зависит, но не один фактор не является решающим полностью... После некоторого изучения и ответов Платона становица ясным, что основными факторами являются в данном фильтре сателлитов и прочей нечести являются: контент (дубли ищут), авторитет сайта (статический вес скорее) и чистота беков (неспамные из профилей, досок и блогов)... имхо

Нет это сайт бренда, зареген 3 года назад ... тут речь не в индексации и порогах .... а ссылаются (естественно) очень много хороших сайтов....

[Удален]
#122

замечаю какую-то хреновину второй ап подряд....

выпали странички

http://www.yandex.ru/yandsearch?serverurl=yarportal.ru (проиндексировано около 600 страниц)

на самом деле должно быть проиндексировано 50000 страниц с темами...

вот уже второй ап ночью я доволен бываю временами....

все 50000 страничек возвращаются... поиск по сайту становится полноценным....

проходит несколько часов.. и под утро старая хрень возврашается....

что ж такое то а....

[Удален]
#123

такое впечатление, что какой-то фильтр срабатывает именно в конце апа... который и портит мне всю картину

hypno
На сайте с 17.07.2006
Offline
110
#124
Beirut:
такое впечатление, что какой-то фильтр срабатывает именно в конце апа... который и портит мне всю картину

так и есть, я заметил это еще в прошлый АП

[Удален]
#125

возможно действительно проблема в неуникальном контенте...

у меня на форуме много тем, которые создаются по новостям местным (процентов 10, наверное)...

т.е. новости заимствуются для обсуждения на новостных сайтах вручную....

хотя с т.з. разума... тема обсуждается и она становится уникальной и более ценной, так как по теме идут нормальные комментарии от других людей... т.е. новость становится более информативна....

зачем спрашивается из индекса выкидывать 50000 страниц... хз....

hypno
На сайте с 17.07.2006
Offline
110
#126
Beirut:

зачем спрашивается из индекса выкидывать 50000 страниц... хз....

Это бред конечно .. вот гугл правильно делает .. засунет дубли в дополнительные результаты и в случае надобности их вытащит и предъявит юзеру.

[Удален]
#127

sape и прочими системами не пользуюсь...

разве что регистрирую сайт в каталогах массово каждый месяц... однако не проставляя обратных ссылок на сайты (каталога ссылок на форуме нет)... т.е. "где примут сайт, там примут"...

может, еще в этом проблема... хотя сомневаюсь...

мне кажется, это какой-то неудачный способ борьбы с дубликатами

Ceres
На сайте с 28.09.2004
Offline
389
#128
мне кажется, это какой-то неудачный способ борьбы с дубликатами

Нет, вы ошибаетесь. Все банально - это алгоритм такой. Кривой, косой, юродивый - но алгоритм.

Там чу-де-са! )
Deni
На сайте с 15.04.2006
Offline
355
#129
Nicola:
Ответ Платона:

Страницы сайта предназначены (были
предназначены на момент блокировки) не для пользователей, а для робота
поисковой системы, (в частности, они содержат большое количество поисковых
запросов) с единственной целью привлечения трафика и дальнейшего его
перенаправления. Именно из-за них алгоритмы Яндекса «решили», что лучше
показывать пользователям не все страницы сайта, а только самые важные.

Такс........ Я что то упустил?

Яндекс начал анализировать частотность слов на странице и выкидывать отдельные страницы если процент превышает лимит?

Nicola Можете показать этот сайт? Тут или в личку?

TZ
На сайте с 23.07.2007
Offline
42
#130

Капец у меня сегодня утром полностью сайт вылетел в трубу... Я так понял это наверно много ключевиков на странице, но сколько их должно быть тогда??

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий