Зачем в серпе страница, на которую нельзя попасть ниоткуда, кроме как с серпа?
T.R.O.N добавил 13.10.2008 в 19:24
сайтмап, это не страница и ничего с ней общего не имеет. А ссылок в сайтмапе должно быть стольок, сколько вы хотите скормить боту, с небольшими оговорками
Конечно, яше остается фиксить только IP, ибо все остальное для него недоступно.
Он ее проиндексирует (для этого сайтмап и делался), а вот, включит ли ее в серп, большой вопрос. Скорее всего - нет (имхо конечно)
Интересная тенденция. Как тольок яша водит какие-либо ограничения, сразу находятся те, которым они мешают. Вот я не помню, чтобы когда то дальше 20-й страницы уходил, а это тольок 200 позицый
Покажите источник информаци.
Жирность определяется СУГУБО внутренними критериями ПС и никогда и не кем не может быть определена извне, даже приблезительно. Могут существовать только догадки. Это же касается критериев, при которых начинается "разделение" веса (статического или ссылочного) на все исходящие ссылки
selestik,
яша не учитывал и не будет учитывать ссылки сос воего каталога (если очень захочет, он может анализировать свою базу, к примеру)
Для гуглера и других "не маленьких" систем, учет бэков с очень "жирных" сайтов приведет к "нестабильности результатов". Поэтому, любая ранжирующая система (как серп ПС), должна иметь некие "постулаты", для коректной работы. Учет бэков с ЯК или самого Яши, как и учет бэков с серпа, приведет к непредсказуемым последствиям.
Вы указали, что файл роботс не противоречит желанию ботов проиндексировать страницы каталога. Я говорю о учете в результатах.
Пипец. А давайте псмотрим Экселем
не считаю. Ибо бэклинк, это не просто ссылка, а ссылка, которая учитывается ПС или Каталогами при ранжировании. А вот подтвержедния этому - нет.
Простите, Вы ссылку с ЯК считаете беком или я что-то перепутал?
А разве яша перестал продавать место под рекламу?