Ограничение в 1000 результатов действует на ВСЕ запросы, а не только при поиске страниц на одном сайте. Зачем делать для поиска по сайту специальные алгоритмы? Кстати релевантность страниц все равно определяется даже если вы просто ищете по сайту с пустым запросом.
WhiteSmartFox добавил 11-01-2011 в 16:06
Насколько я представляю архитектуру, Я сразу генерит 1000 результатов на каждый запрос (подумайте сами как можно узнать какой сайт на 500 месте в выдаче не сгенерировав 500 предыдущих), кешируя результаты пока их не попросит пользователь и соответственно чтобы увеличить кол-во результатов до 2000 нужно увеличивать и память кеша и время генерации КАЖДОГО запроса к Я, а это бессмысленные траты ресурсов, т.е. чтобы выдавать пр 50.000 результатов нужно увеличить в худшем случае мощности сервера (память и процессор) в 50 раз причем для всех запросов.
В любом случае чтобы узнать какой сайт будет на 1000 месте надо сгенерировать 999 предыдущих и расставить их по ревалетности, чтобы узнать какой сайт будет на 50 тыс месте, надо сгенерировать 49999 результатов и расставить их по ревалентности, есть разница?
P.S. Странный спор, аналог:
- Давайте сделаем сенокосилку с вертикальным взлетом
- Нафиг?
- Ну мы можем же её сделать?
- Зачем?
- Ну просто так. Сделаем?
- Да нафига?
Объясните ну нафига вам это сенокосилка с вертикальным взлетом? Ну возвращает Я 100 страниц выдачи и что? Нафига вам сдалась 101 страница? Вы так и не придумали случай когда кому-либо может потребоваться более 1000 результатов.
P.P.S. Кстати гугл тоже где-то на 90-93 страницы выдачи перестает показывать результаты по любому запросу.
В парсерах которые парсят выдачу ПС. Зачем обычному пользователю больше тысячи ответов на запрос? Приведите хотя бы один пример когда обычному пользователю (не вебмастеру или оптимизатору) нужно более тысячи ответов на запрос? А парсер и миллион страниц проглотит, и нафига это нужно Я (генерить миллионы страниц для кривого парсера)?
При обсуждении поведенческих факторов все говорят что основной негативный фактор это быстрое закрытие страниц или просмотр малого кол-ва страниц, хотя куда более явным признаком является это кол-во уникальных пользователей вернувшихся на сайт через какое-то время (особенно по закладкам или прямым переходам, т.е. не с поисковиков), так как отсутствие подобных переходов у посещаемого сайта это явный признак поискового спама (на ГС никто в своем уме возвращается не будет), а быстрое закрытие страниц или просмотр малого кол-ва страниц может быть и у вполне хорошего СДЛ.
P.S. На самом деле, уверен основным поведенческим фактором являются возвраты вне поисковых систем (вычисляемые с помощью метрики, баров и т.п. вещей), в особенности прямые переходы (с пустым reference) и переходы с сайтов закладок (в особенности возвраты в диапазоне больше 1 дня и меньше 3 месяцев). Причем они являются только сигналом ГС/не ГС, а не реальным фактором ранжирования (т.е. в фильтры попасть можно, а в топ по высокочастотнику вряд ли), ИМХО.
Теоретически нет, практически хитробот найдет как зайти, например поставит в референс не поисковый запрос, а просто пустую строчку или какой-нибудь левый сайт типа закладок или вконтакте и заполнит юзер агент реальными данными (ИМХО).
Легкое это изменить титл или H1, если вы это можете. Скажем добавить лишний текст в титл или уменьшить кол-во вхождений ключевого слова на страницах. Делать стоит по-потихоньку чтобы сайт резко не обвалился,в крайнем случае вернуть все назад.
Бред, во-первых, вебмастер может владеть или админить сотнями сайтов в части которых есть покупка ссылок, в части нет (и даже владельцы у них разные). Во-вторых, слишком сложно и не однозначно. В-третьих, продажные ссылки куда проще находить совсем другими способами.
Ничего не будет от куда бы не заходили.
WhiteSmartFox добавил 21-12-2010 в 19:20
В вебмастере, я думаю, миллионы сайтов и что к каждому привлекает внимание?
Ну если действительно так думаете не выставляйте регион.
Подозреваю, это нужно для пускания пыли в глаза заказчику, который ещё верит что апорт дает трафик. Весь трафик апорта (всех сервисов) около 30-40 тыс посетителей в день (по топ100 рамблера) на поиск там вообще копейки (может тыс 10 запросов в день).
А сознательно ввести старый домен в бан?
Ну то есть склеить с новым сайтом, потом резко поменять тематику например поставить сайт ХХХ тематики на старом домене (убрав хост и редирект) + всякие радости вроде колоакинга.
P.S. Возможно бан зеркала отразится и на новом сайте, не знаю.
могут проверить, но в редких случаях скажем был стук о поисковом спаме в супер раскурченном в Я сайте.
Можно, она называется просто - Искуственный интелект, любую другую программу можно обмануть в отличии от человека, т.к. программы не понимают смысла текста (пока по крайне мере), а значит поисковый спам часто находят только по стуку от пользователей.
Сравните выдачу гугла и майла, один в один (ну иногда 1 сайт из 10 майл исключает по сравнению с гуглом), майл банально парсит выдачу гугла, а значит можно считать что майл это тот же гугл только с другим интерфейсом => не стоит учитывать его в статистики и при оптимизации.
P.S. Таже история что с поиском от Qip'a, который использует выдачу Я.
Скажем по статистики http://www.liveinternet.ru/stat/ru/s...l?period=month реальных независимых ПС только Rambler - 1,6%, Bing - 0,7%, Webalta - 0,4% в общем на все ПС кроме гула и Я от силы 3-4% трафика, а это большой роли не сыграет.