minaton,
до кучи предлагаю еще свой вариант анализатора страниц:
http://www.seoman.ru/analizer/
Из причтного - автоматическое определение заблокированных для индексации ссылок.
Нет, больше всего влияет именно "длина пути". Хотя, если быть совсем точным, важна не длина пути, а кол-во возможных путей до этой страницы. Ведь чем больше их, тем больше вероятность попадения на страницу пользователя - тем больше ИЦ, PR страницы...
Не беспокойся, я не забываю. :)
А вы уверены, что есть факт воровства? То, что этот сервис выдает адреса упомянутых Вами сайтов еще не доказательство. Это раз.
А вот два: о какой этике может идти речь, если Вы сами "выносите грязное белье". Если с Вашего сайта воруют - идите и общайтесь с ворами напрямую. Причем тут данный форум?
Или таким способом Вы пытаетесь очернить конкурентов в глазах потенциальных клиентов?..
Затем, что...
1) там есть уже куча лишнего, что мешает работе;
2) там многого не хватает, например нормального анализа на предмет индексации ссылок. В моем варианте я попробовал сделать такой анализ - можете проверять...
3) (в последнюю очередь) ну некрасивый он... :(
PS
Да и вообще конкуренция полезна. Если каждый начнет делать свой такой сервис, оно, конечно, будет глупостью, но если сервис всего один - это чревато застоем в развитии.
Во-первых, я не говорил "зеркала" - я говорил "гипотеза о том, что страницы являются "зеркалами". Это важно!
Робот, анализируя информацию в индексной базе, находит очень похожие страницы на разных сайтах. На основе этой информации он может предположить, что страницы или сайты вцелом являются зеркалами. То, что Вы видите в логах - обращения робота для проверки гипотезы. При этом он может пытаться обращаться к несуществующим страницам - это официально подтвержали сотрудники Яндекса. Такое происходит только при условии, если гипотеза выдвинута относительно всего сайта...
Алгоритм определения зеркал Яндексом, как всегда, не разглашается по понятным причинам.
Это робот-зеркальщик Яндекса. В индексной базе Яндекса были обнаруженные страницы, очень похожие на те, куда он обращается. Робот проверяет гипотезу о том, что страницы являются "зеркалами".
Подробнее см. http://www.seoman.ru/FAQ/article032.html
Сейчас превращение "динамических" страниц в "статические" не так актуально, как это было даже год назад, когда писалось основное кол-во статей по этой теме.
Все основные поисковые машины нормально индексируют "динамические" страницы.
Разница может быть только в аккуратности простановки ссылок, т.к. ссылки article.html?12345&qwerty и article.html?qwerty&12345 синонимичны с т.з. сервера, но не являются таковыми для индексирующего робота.
Если всегда в ссылках на динамические страницы параметры идут в едином порядке и отсутствуют "случайные" параметры (номера сессий, случайные числа и т.п.), я не вижу причин Вам беспокоиться о переделке сайта. Тем более, что такая переделка сильно скажется на образе Вашего сайта с т.з. поисковых машин - им придется переиндексировать все заново, - а это чревато потерей позиций в результатах поиска.
Перевод в "статический" вариант, ИМХО, полезен только в том, что он провоцирует более аккуратно следить за порядком параметров в адресе.
dix0n,
Просьба не обобщать наблюдения.
Как пример, подконтрольные мне сайты меняются только тематически. В этом есть много причин. В том числе и то, что для нас важны только целевые посетители. Ссылки с далеких по тематике сайтов только увеличивают число "пустых" посетителей. При посещаемости сайта в несколько тысяч человек в сутки это начинает заметно влиять на его работу.
Kost прав - это не зеркальщик. Это робот подсветки найденных слов.