wolf

wolf
Рейтинг
1183
Регистрация
13.03.2001
Должность
интернет-маркетинг, SEO
А никто и не говорил, что он умирает, просто что-то в последнее время не слышно громких заявлений по поводу того, что до 80% трафика приходит с яхи

А когда подобные заявления были слышны в последний раз? Лет пять назад, когда кроме Яхи и Альтависты толком никто ничего не искал?

Вы еще спомните времена, когда в Рунете траффик на 95% шел с Рамблер Топ 100.

Учет ссылок - это PageRank плюс построение специального индекса с текстами гиперссылок.

Получатся, PR и ссылочное ранжирование будут учитываться? Похоже, в Рамблере все же, наконец, взялись за дело. Я б на месте Яндекса призадумался б.

Кстати, Владислав, не секрет, что Яндекс ведет достаточно агрессивную политику по отношению к спаммерам, спамдексерам и прочим оптимизаторам :). Чуть что - сразу в бан лист. Ну, или всякие фильтры на сайт, если ресурс на самом деле ценный и Яндексу его контент совсем потерять не хочется. Как в этом смысле в свете нововведений будет обстоять в Рамблере? Ведь сами понимаете, теперь те методы, что прокатывали в Яндексе (например, то, чем занималась Агава), подойдут и для Рамблера.

Yahoo... Жив курилка!

А кто говорил, что он помирать собрался?

Что ж тогда так много флеймов вокруг динамических страниц?

Потому что некоторые поисковики сознательно не индексируют динамические страницы, распознавая их по некоторым символам адресе, характерным для динамических страниц. Так, например, Рамблер, не станет индексировать страницу, обнаружив в ее адресе конструкцию ".php?". Апорт тоже не будет индексировать страницы с вопросительным знаком в адресе. Поэтому подобные флеймы ставят своей целью маскировку адреса динамической страницы под статическую.

Что, драйвер кириллицы слетел? Могу поставить в форуме виртуальную русскую клавиатуру.

А ему, наверное, так проще. Вспомни, как был удивлен vmegap, обнаружив, что русскоязычные американцы предпочитают англоязычный раздел его сайта нежели русскоязычный :)

Значит, PageRank'ом пока и не пахнет...

Есть подозрение что гугл признает "ссылающимися" ссылки только по определенным критериям, вопрос собственно в том что это за критерии?

Критерии - достаточно высокий PR ссылающейся страницы, как правило не ниже 4/10, хотя иногда (правда, очень редко) среди backward links попадаются страницы с PR = 3/10.

Т.е. я правильно понимаю что в алгоритме рассчета PR участвуют только ссылки которые вылезают по link:domain.com, backward links по-другому?

"... Об этом науке не известно" :) А у Вашего сайта какой PR при нуле backward links?

wolf
Пример можно было бы и получше привести: GetterroboPlus Puu, конечно, занимается link validation, но только в составе поисковой системы.

Вот Вам другой пример. Выдержки из Code of Etics сайта www.linksmanager.com , который предоставляет сервис для автоматизации управления страницами ссылок сайта пользователя:


LinksManager Abides Robots.txt

LinksManager runs two automated processes that act like search engine spiders or verifiers. They are:

Reciprocal Link Checker - Scans websites who have a link on a LinksManager account owner's links pages, searching for a reciprocal link back to that account owner's website.

Dead Link Checker - Scans websites who have a link on a LinksManager account owner's links pages, to determine if that website is active and visible.

Both of these automated processes abide by any relevant instructions in a website's robots.txt file.

Robots.txt к Закладкам, конечно же, никакого отношения не имеет

Однако не все так думают. В Буржуинии, кстати, тоже периодически слышатся возмущения несоблюдением robots exclusion протокола различными URL verify роботами. См., например, http://www.innopacusers.org/list/archives/2001/msg01165.html

... by retrieving a document, and recursively retrieving all documents that are referenced, иначе его (это определение) просто не было бы смысла писать в таком виде. Если Вы этого не понимаете, то я просто не в состоянии с Вами еще что-то обсуждать.

Вы просто зациклились на индексирующих роботах, которым действительно необходимо соблюдать это правило! Но ведь есть понятие link validation robots, которым этого не надо делать, но которые, тем не менее, не перестают от этого быть роботами. И тот факт, что им для работы достаточно запроса HEAD, а не GET, тоже не делает их не роботами. В базе роботов сайта http://www.robotstxt.org таких собрано немало. Например, GetterroboPlus Puu имеет maintenance: link validation и не более того. И как и все вежливые роботы, соблюдает Exclusion Protocol.

Так что ваш закладчик - робот в общепринятом смысле, хоть и невежливый. Хотя скажу по секрету, Robozilla тоже невежлив. ;) И Бог бы с ним, с вашим невежливым роботом, просто за Славу Тихонова обыдна, понимаешь. :)

Всего: 24501