LiM

Рейтинг
71
Регистрация
30.11.2001

minaton,

до кучи предлагаю еще свой вариант анализатора страниц:

http://www.seoman.ru/analizer/

Из причтного - автоматическое определение заблокированных для индексации ссылок.

Нет, больше всего влияет именно "длина пути". Хотя, если быть совсем точным, важна не длина пути, а кол-во возможных путей до этой страницы. Ведь чем больше их, тем больше вероятность попадения на страницу пользователя - тем больше ИЦ, PR страницы...

Не беспокойся, я не забываю. :)

А вы уверены, что есть факт воровства? То, что этот сервис выдает адреса упомянутых Вами сайтов еще не доказательство. Это раз.

А вот два: о какой этике может идти речь, если Вы сами "выносите грязное белье". Если с Вашего сайта воруют - идите и общайтесь с ворами напрямую. Причем тут данный форум?

Или таким способом Вы пытаетесь очернить конкурентов в глазах потенциальных клиентов?..

Скажу по секрету, даже Текарт пользуется сервисом Профессора. Зачем писать свой, когда уже есть Гришин?

Затем, что...

1) там есть уже куча лишнего, что мешает работе;

2) там многого не хватает, например нормального анализа на предмет индексации ссылок. В моем варианте я попробовал сделать такой анализ - можете проверять...

3) (в последнюю очередь) ну некрасивый он... :(

PS

Да и вообще конкуренция полезна. Если каждый начнет делать свой такой сервис, оно, конечно, будет глупостью, но если сервис всего один - это чревато застоем в развитии.

Как писал FreeMarket
но как он может обращаться к этим страницам, если их нету в базе?
и он обращется к страницам которые возможны зеркало других страниц?

а как робот определяет это зеркало или то зеркало ?

Во-первых, я не говорил "зеркала" - я говорил "гипотеза о том, что страницы являются "зеркалами". Это важно!

Робот, анализируя информацию в индексной базе, находит очень похожие страницы на разных сайтах. На основе этой информации он может предположить, что страницы или сайты вцелом являются зеркалами. То, что Вы видите в логах - обращения робота для проверки гипотезы. При этом он может пытаться обращаться к несуществующим страницам - это официально подтвержали сотрудники Яндекса. Такое происходит только при условии, если гипотеза выдвинута относительно всего сайта...

Алгоритм определения зеркал Яндексом, как всегда, не разглашается по понятным причинам.

Это робот-зеркальщик Яндекса. В индексной базе Яндекса были обнаруженные страницы, очень похожие на те, куда он обращается. Робот проверяет гипотезу о том, что страницы являются "зеркалами".

Подробнее см. http://www.seoman.ru/FAQ/article032.html

Как писал Харви
Приятель сказал, что если я использую передачу параметров через "?", то поисковики не будут нормально это индексировать.
Говорят, что можно заменить страницы типа article.html?12345 на article.html/1234 при помощи скрипта, обрабатывающего ошибку 404. Поскольку я с РНР не знаком, может, кто поделится готовым работающим скриптом для этого дела?

Сейчас превращение "динамических" страниц в "статические" не так актуально, как это было даже год назад, когда писалось основное кол-во статей по этой теме.

Все основные поисковые машины нормально индексируют "динамические" страницы.

Разница может быть только в аккуратности простановки ссылок, т.к. ссылки article.html?12345&qwerty и article.html?qwerty&12345 синонимичны с т.з. сервера, но не являются таковыми для индексирующего робота.

Если всегда в ссылках на динамические страницы параметры идут в едином порядке и отсутствуют "случайные" параметры (номера сессий, случайные числа и т.п.), я не вижу причин Вам беспокоиться о переделке сайта. Тем более, что такая переделка сильно скажется на образе Вашего сайта с т.з. поисковых машин - им придется переиндексировать все заново, - а это чревато потерей позиций в результатах поиска.

Перевод в "статический" вариант, ИМХО, полезен только в том, что он провоцирует более аккуратно следить за порядком параметров в адресе.

наблюдаю такую картину - что ни сайт то каталог сайтов, причем обмен идёт совсем не тематический

dix0n,

Просьба не обобщать наблюдения.

Как пример, подконтрольные мне сайты меняются только тематически. В этом есть много причин. В том числе и то, что для нас важны только целевые посетители. Ссылки с далеких по тематике сайтов только увеличивают число "пустых" посетителей. При посещаемости сайта в несколько тысяч человек в сутки это начинает заметно влиять на его работу.

Kost прав - это не зеркальщик. Это робот подсветки найденных слов.

Подробнее см. http://www.seoman.ru/FAQ/article032.html

Всего: 1000