Kryukov

Рейтинг
12
Регистрация
11.11.2005
lagif:
Мы говорим не о частях URI (все является частями URI), а о каталогах конкретно. Переменная никогда не станет каталогом. Что здесь неясно-то?
/abcdef/ - это каталог, а не QUERY_STRING.
Или вы думаете, поисковый робот одно от другого отличить не сможет?!!

ладно... попробую пояснить свою мысль последний раз. Например, у меня есть http сервер. В области хранилища данных на нем вообще нет ни одного каталога или папки или директории или называйте как хотите... Однако мой сервер прекрасно отдает во внешний мир документы с урлами вида "..../aaa/bbb/ccc/...". А теперь к Вам вопрос: какой уровень вложения имеет мой URL вида: http://My_site/aaa/bbb/ccc/"?

Так вот, по жизни это достаточно частая ситуация и поисковики не рассматривают (вероятно :) ) кол-во слешей или еще чего-то в урле как признак чего-бы то ни было.

lagif:
Опыт. Просмотры логов. Изучение элементарной теории.

Ну если Вы полностью полагаетесь на опыт, то и обсуждать-то нечего (простите). А вот на счет элементарной теории я бы просил Вас указать ссылку. Где это сказано, что организация поисковика обязана подчиняться изучению каждого ээээ... сайта с его ээээ... головы. Где описаны сами эти понятия. А заодно и что такое первый проход - второй и пр. Ну не знаю я этого. А то, боюсь, может я с 96 года все не правильно делал :)

lagif:

p.s. Бог - есть любовь, а не разработчик SE. Уважайте религии: я христианка.

Я говорил о контексте, если Вас это обидело, приношу глубочайшие извинения.

lagif:
Эти переменнные к пути не имеют ни малейшего отношения. Мы говорили весь топик о вложенности каталогов, а не о динамических перменных.

Чем отличается "...&sid=abcdefgh..." от ".../sid=abcdef/..." или просто от ".../abcdef/..." - да вобщем то ничем - и то и другое является частью URI и может быть стрипнуто поисковиком.

lagif:
Если робот начинает чтение от головы (а он всегда начинает от головы),

Кто Вам это сказал... сестга имя... :) Способ построения очереди сканирования поисковика - это, можно сказать, его ноу-хау. Какое место по объемам и критериям включения в эту очередь занимает какой-то конкретный сайт - вешь для вас скрытая и вряд ли кто ее опубликует.

lagif:
p.s. известно, между прочим, не только Богу, но и разработчикам... :(

что в данном контексте одно и тоже. Я бы не стал публиковать такие алгоритмы, хотя бы из-за наличия в этой жизни SEO :)

lagif:

Что именно относится из вышесказанного? Что поисковик обрезает пути?

Я только имел ввиду, что не следует в URL использовать что-то типа "...&sid=..." "...&sess=..." и пр. С высокой вероятностью такое большинством будет вырезано. Полный список у каждого свой, но можно предположить, что под нож может попасть и безобидное "...?id=..." если умельцы от мониторинга сессий будут такую конструкцию часто использовать. Это просто предполагаемое предостережение.

Что касается глубины прочтения - так оно может измеряться разными подходами. От банального ограничения по максимальному кол-ву урлов до алфавитного порядка. Как урлы поступят в "в общее знание поисковика" - Одному богу известно. Уровень вложения от т.н. головы может иметь значение, а может и не иметь. Т.е Вам следует изучать со стороны конкретно-интересующий Вас поисковик (скорее всего это Я) и только делать предположения.

lagif:
в том, насколько они далеки от главной страницы по ссылочной вложенности. Возможно, какое-то значение имеет и количество подкаталогов в пути к странице, но я в этом сильно сомневаюсь.

Для поисковика _ВСЕ_ДОКУМЕНТЫ_ (в рамках его дозволенности :) ) являются одним большим сайтом, в вашем понимании. Ему в принципе, все равно, как описано дерево этого сайта. Другое дело, что у поисковика есть понимание, что дерево, это по своим объемам потенциально необъятно для него самого. Чтобы иметь хорошее рабочее представление о строении и содержании дерева, поисковик вводит эвристики, ограничивающие его изучение веток. Какие они - дело каждого конкретного поисковика и может сильно зависить от человека, в руках которого чемоданчик с кнопкой и от его настроения. Чемоданчик то - его личный. К тому же, сама жизнь заставляет эти эвристические подходы менять достаточно часто.

Так что, ответ на вопрос: как лучше сделать вид ссылок лично для меня проблематичен. Одно могу сказать точно, любой поисковик отслеживает горе-деятелей, которые запихивают в URL информацию о сессии, поисковик старается ее вырезать (опять же согласно своей эвристике и жизненному опыту). Конечно, это не есть хорошо, как любая отсебячина, но у поисковика нет выбора. Это в некоторых случаях может привести к тому, что он (SE) корежит правильный URL т.к. ему по большому счету наплевать, что он в этом случае потеряет сотню-другую документов, зато точно не будет делать лишней работы в больших объемах. Это относится и как к динамическим URI так и к путям :)

ЗодчийТеней:
к чему вы это? и почему ваш сайт www.belwebsite.com использует краденный «дизайн»?

Сюда эт точно ни к чему :)

OFF: что касается дизайна, то у меня (как у человека реально глазами просматривающего очень много страниц) сложилось впечатление, что такой внешний вид является "корпоративным стандартом" оптимизатора. Прошу прощения, если кого-то обидел. Ничего личного.

ЗодчийТеней:
а вы готовы будете оплатить новый алгоритм ради 10-15 % пользователей? (возможно ошибся в цифрах) вопрос лишь в целесообразности затрат, если они окупятся то думаю что их реализуют, но для просчета вам придется обратиться к разработчикам поисковых систем

Неа, с точки зрения разработчика - это нулевые затраты (ну близко к тому, он один фиг функциями и их параметрами сам играет). Вопрос в том, что это не понятно для большинства, это раз. Не факт, что даже когда понятно, что пользователь примет правильное решение. У меня есть дебаговая формочка, в которой десяток параметров, влияющих на результат. Но правильнее будет не отдать эту форму любому желающему, а, скажем, сотне добровольцев. Зафиксировать им задание запросов, и в этих рамках пусть крутят любые ручки. Потом зафиксируют оптимум для себя. Ну а общие результаты надо апроксимировать и прибить гвоздем для всех остальных :)

ЗодчийТеней:
именно в позицию, но вот незадача в узкоспециализированных запросах эта самая позиция оказывается очень и очень далеко от начальных документов, а в первых рядах идет один сплошной мусор который попал на авторитетный ресурсы даже представления не имеющие что они в данном случае публикуют. вот и оцените после этого влияние таких факторов как PR и ИЦ на выдачу результатов..

Как это узнать (узкоспециализированность)? По частотности во всей коллекции документов? По частотности в других запросах? По тезаурсу? Как еще? Короче, критерии в студию...

ЗодчийТеней:
Тогда я в свою очередь открою Вам страшную тайну, такие пользователи готовы оплачивать эту информацию, она есть в сети, практически каждая научно-исследовательская структура имеет свой сайт и общедоступную информацию на них выкладывает, а делать письменные запросы для получения этой информации занимает непозволительно много времени. Так что выбирают поисковые монстры? Массовость, или оплату труда? Пока что вижу лишь массовость. Конечно есть специализированные компании занимающиеся поиском требуемой информации но, их услуги очень дороги и это при условии что они предоставят лишь ту информацию которая является общедоступной, и опять же временные рамки, затратив два три дня я теже самые данные найду в Интернет и заплочу при этом лишь за трафик, Ваш выбор?

Да.. Конечно, в уважающем себя поисковике, исходный запрос обязан быть обнюханным с разных сторон и, в зависимости от его запаха, может приниматься решение о способе ранжирования. Но это не тема данного топика. Если хотите, давайте поговорим на эту тему - тоже очень интересно постороннее мнение и формулизованные идеи.

itman:
Но можно множество левых сайтиков понасоздавать, с миру по нитке на PR наберется. У майкрософтовцев как раз и написано про очень высокую корреляцию между indegree и pr.

Опять не так уж и страшно пр детальном рассмотрении, чтобы наделоть очень много разных ссылочек существует ограниченное число способов.

1. Самый простой создать в "своем" домене кучу поддоменов с автоматическим изменением суммарного контента в зависимости от имени.

2. Регистрировать новые домены а) в публичных зонах б) в "хороших" зонах

Что еще забыл?

Б лоб не поддается анализу только пункт 2(б). Однако, опять же, во многих случаях, автору искусственного перераспределения нужен результат уже завтра ибо денюшка проплачена. Тогда надо куданьть сначала сами эти ссылки запихать (в форум, например), чтобы они заработали и заработали быстро

А уж у кого хватает терпения кропотливо поступать по пункту 2б - ну честь ему и хвала, не зря ест свой хлеб. Но в целом, я согласен, нужны новые метрики (и молчать о них как партизан)

itman:


Ну и опять-таки, PR - только один из индексов популярности. Есть подозрение, что сам по себе он уже не очень хорошо работает. Неплохо бы также какую-никакую спамобойку поддерживать и постоянно подкручивать. Тогда и тот же PR можно было бы использовать.

Кстати сказать, вообще по жизни в этой области все плохо работает, что поддается алгоритмизации и опубликовано :) (как я завернул?)

1 2345 6
Всего: 59