WhiteSmartFox

Рейтинг
25
Регистрация
17.11.2010
юни:
Выдернуть из базы уже содержащиеся там данные, соответствие титла и урла - это совсем не то, что найти в поисковом индексе ответ на запрос пользователя и выдать его в соответствии с определяющими релевантность алгоритмами.
юни:
Проще вообще не обрабатывать такого рода запросы, чем выбирать часть по каким-то критериям, отнимающим дополнительные ресурсы на их пересчёт.

Ограничение в 1000 результатов действует на ВСЕ запросы, а не только при поиске страниц на одном сайте. Зачем делать для поиска по сайту специальные алгоритмы? Кстати релевантность страниц все равно определяется даже если вы просто ищете по сайту с пустым запросом.

WhiteSmartFox добавил 11-01-2011 в 16:06

юни:
Насколько я представляю себе архитектуру, разница в нагрузке между выдачей 1.000 и 50.000 результатов - существенно меньше, чем разница между 5 и 1.000 результатов.

Насколько я представляю архитектуру, Я сразу генерит 1000 результатов на каждый запрос (подумайте сами как можно узнать какой сайт на 500 месте в выдаче не сгенерировав 500 предыдущих), кешируя результаты пока их не попросит пользователь и соответственно чтобы увеличить кол-во результатов до 2000 нужно увеличивать и память кеша и время генерации КАЖДОГО запроса к Я, а это бессмысленные траты ресурсов, т.е. чтобы выдавать пр 50.000 результатов нужно увеличить в худшем случае мощности сервера (память и процессор) в 50 раз причем для всех запросов.

В любом случае чтобы узнать какой сайт будет на 1000 месте надо сгенерировать 999 предыдущих и расставить их по ревалетности, чтобы узнать какой сайт будет на 50 тыс месте, надо сгенерировать 49999 результатов и расставить их по ревалентности, есть разница?

P.S. Странный спор, аналог:

- Давайте сделаем сенокосилку с вертикальным взлетом

- Нафиг?

- Ну мы можем же её сделать?

- Зачем?

- Ну просто так. Сделаем?

- Да нафига?

Объясните ну нафига вам это сенокосилка с вертикальным взлетом? Ну возвращает Я 100 страниц выдачи и что? Нафига вам сдалась 101 страница? Вы так и не придумали случай когда кому-либо может потребоваться более 1000 результатов.

P.P.S. Кстати гугл тоже где-то на 90-93 страницы выдачи перестает показывать результаты по любому запросу.

юни:
А в чём может быть нагрузка, интересно? Если страницы действительно проиндесированы, на них уже есть сохранённая копия, то в чём проблема выдать их все по запросу, а не только часть?

В парсерах которые парсят выдачу ПС. Зачем обычному пользователю больше тысячи ответов на запрос? Приведите хотя бы один пример когда обычному пользователю (не вебмастеру или оптимизатору) нужно более тысячи ответов на запрос? А парсер и миллион страниц проглотит, и нафига это нужно Я (генерить миллионы страниц для кривого парсера)?

orangebeat:
Основной фактор отказа: Просмотр одной страницы.

При обсуждении поведенческих факторов все говорят что основной негативный фактор это быстрое закрытие страниц или просмотр малого кол-ва страниц, хотя куда более явным признаком является это кол-во уникальных пользователей вернувшихся на сайт через какое-то время (особенно по закладкам или прямым переходам, т.е. не с поисковиков), так как отсутствие подобных переходов у посещаемого сайта это явный признак поискового спама (на ГС никто в своем уме возвращается не будет), а быстрое закрытие страниц или просмотр малого кол-ва страниц может быть и у вполне хорошего СДЛ.

P.S. На самом деле, уверен основным поведенческим фактором являются возвраты вне поисковых систем (вычисляемые с помощью метрики, баров и т.п. вещей), в особенности прямые переходы (с пустым reference) и переходы с сайтов закладок (в особенности возвраты в диапазоне больше 1 дня и меньше 3 месяцев). Причем они являются только сигналом ГС/не ГС, а не реальным фактором ранжирования (т.е. в фильтры попасть можно, а в топ по высокочастотнику вряд ли), ИМХО.

bracs:
И за закрытие сайта от таких пауков по идее никаких санкций быть не должно. или я не прав

Теоретически нет, практически хитробот найдет как зайти, например поставит в референс не поисковый запрос, а просто пустую строчку или какой-нибудь левый сайт типа закладок или вконтакте и заполнит юзер агент реальными данными (ИМХО).

Maxiz:
Просто хотелось бы способ легкого падения сайта ,а то щас ссылок уберу с первого ,а он резко вниз обвалиться сильно и потом опять гемороиться с ним

Легкое это изменить титл или H1, если вы это можете. Скажем добавить лишний текст в титл или уменьшить кол-во вхождений ключевого слова на страницах. Делать стоит по-потихоньку чтобы сайт резко не обвалился,в крайнем случае вернуть все назад.

Shing:
Если с сеопульта будут переходы зафиксированы, это может значить пользование биржами ссылок.

Бред, во-первых, вебмастер может владеть или админить сотнями сайтов в части которых есть покупка ссылок, в части нет (и даже владельцы у них разные). Во-вторых, слишком сложно и не однозначно. В-третьих, продажные ссылки куда проще находить совсем другими способами.

Ничего не будет от куда бы не заходили.

WhiteSmartFox добавил 21-12-2010 в 19:20

Shing:
Опять же внимание ассесора привлекает.

В вебмастере, я думаю, миллионы сайтов и что к каждому привлекает внимание?

Shing:

Там же даже выставление региона как я понял ассесору передает инфу на проверку.

Ну если действительно так думаете не выставляйте регион.

junior73:
ищем специалиста для продвижения сайта в системе
VF:
проверь выставленную дату на своей машине времени

Подозреваю, это нужно для пускания пыли в глаза заказчику, который ещё верит что апорт дает трафик. Весь трафик апорта (всех сервисов) около 30-40 тыс посетителей в день (по топ100 рамблера) на поиск там вообще копейки (может тыс 10 запросов в день).

А сознательно ввести старый домен в бан?

Ну то есть склеить с новым сайтом, потом резко поменять тематику например поставить сайт ХХХ тематики на старом домене (убрав хост и редирект) + всякие радости вроде колоакинга.

P.S. Возможно бан зеркала отразится и на новом сайте, не знаю.

alputil:
никто вручную проверять сайты не будет

могут проверить, но в редких случаях скажем был стук о поисковом спаме в супер раскурченном в Я сайте.

alputil:
сейчас можно создать любую программу, которая по нужным факторам будет определять качество сайта и т.п. без участия человека

Можно, она называется просто - Искуственный интелект, любую другую программу можно обмануть в отличии от человека, т.к. программы не понимают смысла текста (пока по крайне мере), а значит поисковый спам часто находят только по стуку от пользователей.

FoxyIam:
ну разве что если только с Мэйла немного еще

Сравните выдачу гугла и майла, один в один (ну иногда 1 сайт из 10 майл исключает по сравнению с гуглом), майл банально парсит выдачу гугла, а значит можно считать что майл это тот же гугл только с другим интерфейсом => не стоит учитывать его в статистики и при оптимизации.

P.S. Таже история что с поиском от Qip'a, который использует выдачу Я.

Скажем по статистики http://www.liveinternet.ru/stat/ru/s...l?period=month реальных независимых ПС только Rambler - 1,6%, Bing - 0,7%, Webalta - 0,4% в общем на все ПС кроме гула и Я от силы 3-4% трафика, а это большой роли не сыграет.

Всего: 419