богоносец

богоносец
Рейтинг
776
Регистрация
30.01.2007
borisd:
Никаких дополнительных вычислительных ресурсов поисковикам для индексации страниц с ?page=n не требуется

Речь была о доп.ресурсах, необходимых для уменьшения % ошибок при отсеве дублей. И если ПС делает ошибку, у неё не возникает проблем...

borisd:
Так или иначе поисковику придется индексировать все товары
, если страницы вашей пагинации с т.з. ПС не будут дублями.

Вот лучше посмотрите (простым, не слишком умным взглядом) на кэши показанных выше дублей yandex.ru/m/

Вот ещё живучие дубли.

А теперь попробуйте просто и конкретно (как действуют хвалёные олгоритмы) объяснить: почему столь высокотехнологичный поисковик их не отфильтровал?

Впрочем, если не хотите расставаться с верой в лучшее, я не настаиваю.

borisd:
какая разница из каких списков он получит их урлы - из страниц с page=n или из карты сайта, или из XML файла?

А по чём он насчитывает некий вес странице?

sear4er:
В 33% случаев после первых же правок приведенный к нормальному виду сайт выходит из под АГС после первого письма.

Это было, но так давно, что уже перестало быть правдой.

Ну, перенаправляют? Теперь ждём темы: Яндекс выкинул сайт из индекса! И таких уже много.

Некоторые действия должны быть ещё до индексации. А потом они становятся лишними.

Cell:
Когда я слышу слово "контент", а в особенности словосочетание "уникальный контент" - я жалею, что не имею возможности глянуть на человека, который произнёс эти слова, через прицел снайперской винтовки.

Ну винтовку вам для этого не дадут (в гуманном-то обчестве).

А вот куча уника пропадает... да на каком лохматом сайтике

http://sealytics.ru/?s=%D1%8F%D0%B7%D1%8B%D0%BA

страница результатов поиска.

Спешили наверное.

Положение обязывает...

СЕО уже давно перетекло не в работу с сайтами, а в продажу всего того, во что верят массы как-бы-сеошников, и Людкевич это продавал, и дальше будет продавать нечто подобное.

Cell, переименуйте тему в Мэт Катс опять бьёт зеркала. И не забывайте сказки:

Miha Kuzmin (KMY):
И чем дольше он рубил змей горыныча, тем больше голов у того вырастало...
Cell:
Грядёт укрупнение СЕО-индустрии. Там тоже расплодилось куча мелочёвки, которая только путается под ногами.

Помните, что с бдбд стало? Там это всё как-то китайски-завуалированно назвали.

Для укрупнения (и все платить налоги) пока не хватает того, что было до 2008. И у людей давно есть время на поиски в топ100, где подешевле. А за дорогой ТОП10 массовый потребитель платить пока не может. Поэтому грядёт укрупнение чего угодно, но не СЕО-индустрии.

borisd:
при нормальной организации структуры сайта

А что такое «нормальная организация структуры сайта»?

И не лучше ли сразу сделать хорошую, а не нормальную?

borisd:
деление длинного списка на страницы - это стандартное общепринятое универсальное решение

Экономия ресурсов создателями ПС — вопрос конкурентоспособности. Они там решают свои проблемы, а не ваши... и не могут потратить лишних 5% своего железа на то, чтобы избежать случайного отфильтровывания вашего подопечного.

Уж если с Яндексом такое, то чего ждать простым смертным? Но желающие верить в высокие технологии могут продолжать аутотренинг: Яндекс умный, он во всём разберётся...

Cell:
Посредством продажных ссылок - кажется, тоже скоро придёт.

Так это слишком уж давно кажется. Вольфу лет 5 назад так казаться перестало...

Даты/этапы погибели сцылкоторговцев не уточните?

borisd:
в индекс попадают все страницы с такими списками: /slony/, /slony/?page=1, /slony/?page=2 и т.д. Но бОльший вес имеет первая страница: /slony/ и именно она попадает в топ по запросу пользователя

Взгляните не в вашу веру в умные машины, а в их обычную выдачу

http://www.google.com/search?q=site%3Awww.yandex.ru%2Fm&filter=0

особенно радует /m//?admin=XSS

И представьте, что на продвижение /m/ было что-то потрачено, а её нету. Не повезло Яндексу.

А на первой странице темы уже говорили, что ПС всё понимают... но переносчики подобных заблуждений почему-то не могут ничего продемонстрировать. И уж тем более не пытаются задуматься о том, как создатели решают проблему дублей, которые могут легко проглотить заметный % этого металлома. А если написать алгоритм отсеивания слишком тщательно, так, чтобы он почти не ошибался, то это тоже съест заметный % возможностей того же железа. И пока ПС из прошлого века не вылезли. Они всё такие же тупые... но умным ребяткам хочется верить в лучшее.

borisd:
Уверен на все 100, что поисковики знают о таких стандартных вещах, как "?page=n" и отрабатывают их нормально.

Как-нибудь проверяли эту уверенность в их знании?

Погуглите site:www.yandex.ru

Это версия страницы http://www.yandex.ru/m/?clid=979671 из кэша Google.

и объясните, чем отличаются страницы

http://www.yandex.ru/m/?clid=979671

http://www.yandex.ru/m/

http://www.yandex.ru/m/?clid=йух

т.е. почему умные машины в этом не разобрались?

Просто смотрят они не на то, что вы считаете стандартными вещами.

Всего: 13661