t_o_x_a, в общих чертах - теперь документ ранжируется не по своему общему весу, который раньше считался скажем из релевантности + внешних (внутренних), а по нескольким тысячам функций. (как заявляет сам Яндекс)
В чем это выражается на конкретных примерах? Вкидывают какого-то релевантного донора по тематике в MatrixNet, сайты, которые не проходят этот фильтр - улетают из топа. Раньше ассесоры выполняли эту функцию руками, теперь они лишь собирют доноров для выборки.
Чем это грозит нам? Гораздо проще стало вводить массовые фильтры. Это видно на срезах простыни. Проще стало перестраивать всю выдачу "на живом", а не выбивая руками через ассесоров.
Официальные документы по жадному алгоритму: http://romip.ru/russir2009/slides/yandex/lecture.pdf
Он же Снежинск, он же MatrixNet.
Можно проверять это автоматически. Если хочешь руками забить ПС по странам (некоторые уже вбиты, алгоритм расписан у них на сайте), но без наворотов то - SESpider. Если хочется чего-то нереального (вплоть до 500 региональных поисковиков по всему миру), то http://www.webceo.com/. - халявный, но с наворотами в некоторых местах перебор.
/ru/news/356
"В Google для этих целей применяется PageRank, что даёт потрясающие результаты, и за короткое время Google стал занимать лидирующие позиции не только по объёму базы, но и по качеству поиска. Из наших поисковиков первым PageRank стал использовать Aport, за ним Yandex."
О господи, ну вы даете народ. Раньше был Pr у страниц в яше, теперь MatrixNet, который ранжируется документы по нескольким тысячам функций.
Нет, не победил. Прокаченная страница все также неплохо двигается, в разы лучше, чем нулевка.
Мои наблюдения, опыты. Отличий каких-то не заметил. Разве что новые обучаемые фильтры, типа среза простыни - не более того.
Не, в гугл картах достаточно урла. Контакты не нужны по сути. Вы программист, поэтому вам возможно проще найти нужные запросы в google maps, чтобы пробивать адреса напрямую по урлу.
Есть такая вещь http://www.webceo.com/, типа фришного язла в забугорье, может анализировать, но там наворотов до кучи.
Через нее можно бэки по странам пробить. А также выдачу из поисковиков по странам. (правда сожрет уйму времени)
Я думал речь о нулевых доменах. Так задача еще больше усложняется. Com у меня переодически worldwide ставит в стоке, ровно как и net. Но если домены не стоковые, никогда не задавался мыслью если честно.
Щас подумаю.
Add^
Если бы сайты были коммерческие, можно бы было сделать скрипт, который бы пробивал на размещение в гугл картах по месту расположения компании. Стоит также учесть, что большинство западных сайтов зарегистрированы физически (имеют свой адрес) и если сайты не мусор - можно действительно попробовать, есть высокий шанс, что они не работают worldwide.
Вообщем как-то это все не тривиально.
Сложный вопрос. Переодически натыкаюсь, что сайт приписанный к другой стране - выше в совершенно левом гугле по выдаче. Единственный верный путь как мне кажется - это WT.
И да, гугл автоматически умеет определять по зоне. ua, ru, ca, co, us, uk. Им он присваивает достаточно четко, поэтому ошибиться тут тяжело. Если ВМ не писал на пересмотр. (но и это не всегда помогает)
Руками очень редко можно самому установить. (всего пару раз видел)
Раньше можно было руками выставлять, сейчас такого нет. (или мне так не везет/везет )
Сайт становится проблемным - по разным причинам. Копипаст - играет главную роль. Дублированный контент по страницам. Не важно в каком виде. Вы можете просто взять и посчитать, сколько у вас уникальных слов на каждой странице, и сколько у вас копипаста. (включая меню и прочий мусор)
Гуглу надо как-то определять, где информация важная, а где посредственная, если есть внешние ссылки - ему намного проще это сделать. Если это большой объем уникальной информации - ему намного проще это сделать. Если у домена много входящих ссылок - ему намного проще это сделать.
Дальше вы можете сами приложить голову. Но я бы советовал не зацикливаться на этом, а развивать ресурс. Сделать его полезным и качественным.
Постить уникальный материал, гугл оценит - уверяю. Внутреяя перелинковка может вам тоже помочь, если она сделана правильно.
Серьезные заявления. Во первых, как часто на этих страницах бот - зависит только от ПРа сайта по сути. По логам сервера - он всегда и на всех страницах тусит на нормальных сайтах.
По поводу соплей, то, что в / - далеко не всегда будет адекватно выдаваться и далеко не всегда там будет бот. Тоже самое и с /* | /&. Есть такие страницы, которые в /& и с них идет отличный траф, есть и наоборот.
Никаких закономерностей нет. Зато люди здесь начинались всякой ерунды. Понаблюдали за своими сайтами с копипастом, а теперь что-то советуют. Нет такого понятния как /& - это проблемный страницы, уверяю. Есть проблемные сайты.
Советую читать западных людей и слушать больше их. Любая ваша "проблемная" страница, лечится 10-20 ссылками.
Другой вопрос, что если это был достаточный объем "уникальной" информации по отношению к остальному тексту на странице - эти ссылки даже не всегда нужны.
Но за счет внутряков, такие страницы тоже идеально лечатся.
Соотвественно, я бы не стал принимать здесь все за истину и тем более доверять сервисам сомнительного характера. Достаточно почекать rian.ru или вики. И вы поймете, что это глупость. Любая их новость или страница - отлично собирает траф.
Я бы лучше без текста разместил сначало. Либо в метатегах можете на старте закрыть все в noindex, но тогда у вас получится пустой сайт с несколькими продвигаемыми страницами. Неуник тяжелее двигать и особенно это зло для гугла.