Подгрузка списка товаров на ajax

1 234
B
На сайте с 13.02.2008
Offline
262
#21
богоносец:
Как-нибудь проверяли эту уверенность в их знании?

Похоже, мы о разных вещах говорим.

Если сайт по "?page=n" отображает только существующие списки, а по несуществующим n выдает 404-ю ошибку, то проблем не было.

Что имею ввиду? Разумеется в индекс попадают все страницы с такими списками: /slony/, /slony/?page=1, /slony/?page=2 и т.д. Но бОльший вес имеет первая страница: /slony/ и именно она попадает в топ по запросу пользователя. Также, уверен, что за такие стандартные нечеткие дубли санкции не накладываются. Именно это я и имел ввиду.

В итоге на запрос "слоны", в выдаче появляется мой раздел "слоны" (в виде первой страницы - /slony/), а все остальные списки этого раздела (с ?page=n) хоть и есть в индексе в выдачу по запросу "слоны" не попадают ввиду меньшего веса. По крайней мере у меня именно так.

А мне больше ничего и не надо. А любые извраты с аджаксом для решения этой якобы проблемы (особенно с заменой резервной ссылки ?page=n на #n) только вызовет потенциальны проблемы.

[Удален]
#22
borisd:
Также, уверен, что за такие стандартные нечеткие дубли санкции не накладываются. Именно это я и имел ввиду.

накладываются, более того нет ни каких гарантий что будет отображена именно нужная страница

богоносец
На сайте с 30.01.2007
Offline
774
#23
borisd:
в индекс попадают все страницы с такими списками: /slony/, /slony/?page=1, /slony/?page=2 и т.д. Но бОльший вес имеет первая страница: /slony/ и именно она попадает в топ по запросу пользователя

Взгляните не в вашу веру в умные машины, а в их обычную выдачу

http://www.google.com/search?q=site%3Awww.yandex.ru%2Fm&filter=0

особенно радует /m//?admin=XSS

И представьте, что на продвижение /m/ было что-то потрачено, а её нету. Не повезло Яндексу.

А на первой странице темы уже говорили, что ПС всё понимают... но переносчики подобных заблуждений почему-то не могут ничего продемонстрировать. И уж тем более не пытаются задуматься о том, как создатели решают проблему дублей, которые могут легко проглотить заметный % этого металлома. А если написать алгоритм отсеивания слишком тщательно, так, чтобы он почти не ошибался, то это тоже съест заметный % возможностей того же железа. И пока ПС из прошлого века не вылезли. Они всё такие же тупые... но умным ребяткам хочется верить в лучшее.

B
На сайте с 13.02.2008
Offline
262
#24

При прочих равных поисковик возьмет страницу без ?page=n. Но конечно есть множество других факторов, включая поведенческие, а также санкции, которые могут одеяло перетянуть на страницу с ?page=n. Но чтобы это произошло, это надо накосячить.

Иными словами, при нормальной организации структуры сайта и при естественных внешних факторах точки входа естественным образом должны наложиться на нужные страницы. Если этого не произошло и...

богоносец:
И представьте, что на продвижение /m/ было что-то потрачено, а её нету. Не повезло Яндексу.

Это означает лишь то, что не надо таким образом продвигать.

В любом случае, деление длинного списка на страницы - это стандартное общепринятое универсальное решение, за которое санкции применяться не должны. Ни одного случая подобных санкций мне неизвестны. Правда, я не занимаюсь ГС-ми, да и искусственными накрутками практически тоже. Там может быть по другому, спорить не буду.

Хотелось бы увидеть другое, лучшее, универсальное решение вывода длинного списка позиций без деления на страницы. Только, чтобы это решение и без аджаксов работало. Да и в случае с аджаксом поисковику для индексации что скармливать предлагается? Страницу с длиннющим списком всех позиций?

богоносец
На сайте с 30.01.2007
Offline
774
#25
borisd:
при нормальной организации структуры сайта

А что такое «нормальная организация структуры сайта»?

И не лучше ли сразу сделать хорошую, а не нормальную?

borisd:
деление длинного списка на страницы - это стандартное общепринятое универсальное решение

Экономия ресурсов создателями ПС — вопрос конкурентоспособности. Они там решают свои проблемы, а не ваши... и не могут потратить лишних 5% своего железа на то, чтобы избежать случайного отфильтровывания вашего подопечного.

Уж если с Яндексом такое, то чего ждать простым смертным? Но желающие верить в высокие технологии могут продолжать аутотренинг: Яндекс умный, он во всём разберётся...

B
На сайте с 13.02.2008
Offline
262
#26
богоносец:
и не могут потратить лишних 5% своего железа на то

Никаких дополнительных вычислительных ресурсов поисковикам для индексации страниц с ?page=n не требуется, т.к. эти страницы хоть и схожи по смысловой нагрузке, они не являются спамными и лишними, они необходимы для индексации всех товаров. Так или иначе поисковику придется индексировать все товары, так какая разница из каких списков он получит их урлы - из страниц с page=n или из карты сайта, или из XML файла?

[Удален]
#27
borisd:
Никаких дополнительных вычислительных ресурсов поисковикам для индексации страниц с ?page=n не требуется, т.к. эти страницы хоть и схожи по смысловой нагрузке

для того что бы это понять их надо проиндексировать ;)

borisd:
они не являются спамными и лишними

именно такими они и являются, ибо:

borisd:
они необходимы для индексации всех товаров

:)

borisd:
так какая разница из каких списков он получит их урлы - из страниц с page=n или из карты сайта, или из XML файла

огромная

богоносец
На сайте с 30.01.2007
Offline
774
#28
borisd:
Никаких дополнительных вычислительных ресурсов поисковикам для индексации страниц с ?page=n не требуется

Речь была о доп.ресурсах, необходимых для уменьшения % ошибок при отсеве дублей. И если ПС делает ошибку, у неё не возникает проблем...

borisd:
Так или иначе поисковику придется индексировать все товары
, если страницы вашей пагинации с т.з. ПС не будут дублями.

Вот лучше посмотрите (простым, не слишком умным взглядом) на кэши показанных выше дублей yandex.ru/m/

Вот ещё живучие дубли.

А теперь попробуйте просто и конкретно (как действуют хвалёные олгоритмы) объяснить: почему столь высокотехнологичный поисковик их не отфильтровал?

Впрочем, если не хотите расставаться с верой в лучшее, я не настаиваю.

borisd:
какая разница из каких списков он получит их урлы - из страниц с page=n или из карты сайта, или из XML файла?

А по чём он насчитывает некий вес странице?

B
На сайте с 13.02.2008
Offline
262
#29

burunduk, богоносец,

Гугл вообще ест всё подряд. Только что с того толку, если это "всё подряд" в основную выдачу не попадет.

Ну, ладно оставим всё это. Вы правы в том, что самым существенным ограничителем для поисковиков является сильная ограниченность ресурсов относительно огромного объема информации. В результате большинство общеизвестных (интересных и качественных) алгоритмов обработки информации невозможно применять в лоб. Но эту тему я не хочу развивать по некотрым причинам.

Хорошо, положим, что от дублей, порожденных пагинацией, надо избавляться.

Так что делать то? Какие варианты предлагаете?

Решение, предложенное выше: посетителю выдавать список порциями через ajax (через /#page-n), а поисковикам (да и посетителям при отсутствии ajax) скармливать весь многотысячный список разом, - по мне это плохая затея. Да и если как-либо скармливать поисковикам весь список разом, то ajax в общем то и не нужен, можно спокойно оставить обычную пагинацию, запретив ее индексацию в robots.txt (?page=*).

Единственный полностью корректный вариант я вижу такой:

Тематически разбивать каталог на такое число категорий и подкатегорий, чтобы в пагинации вообще не было необходимости, т.е., чтобы сабжевые страницы пагинации сами были бы небольшими тематическими категориями с разумным количеством позиций в каждой. А дальше уже можно при желании аджаксом выводить порциями товары сразу из всех покатегорий категории или что-нибудь еще придумать. Но такое дробление не всегда приемлемо и возможно.

AD
На сайте с 11.12.2012
Offline
43
#30

В комментариях гугла среди типичных ошибок была - установка canonical на первую страницу листинга.

логично, что canonical надо устанавливать со второй.

Мне кажется, все равно лучше canonical использовать. В случае с ajax вообще никакого веса не должно передаваться другим товарам. чтобы "налить веса" на другие товары - предлагаю запилить какое-нибудь автоматическое обновление части товаров. Чтобы из всего списка они почаще были на основной, канонической странице.

Могу ошибаться в своих предположениях, конечно. Так как тоже сейчас занимаюсь разработкой этой темы. ИМХО.

---------- Добавлено 26.09.2013 в 12:24 ----------

И еще - когда-то был материал о самом Яндексе. Как сайте. И куче ошибок на нем. А они ответили, что Яндекс - он поисковик, и им на все остальное все равно) Как-то так.

Точные позиции всегда - allpositions.ru (http://allpositions.ru/redirect/155868) Недорого продам домены http://calmhome.ru (http://calmhome.ru) ,http://cheap24.ru (http://cheap24.ru)
1 234

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий