богоносец

богоносец
Рейтинг
775
Регистрация
30.01.2007

Так.

в Сохраненные копии загляните... снимок страницы по состоянию на 6 ноя 2012 09:33:24 GMT

Чтобы пролезть по десяткам тыщ страниц и увидеть редирект или каноникал... боту понадобится много времени. Или Гуглу надо срочно перегрузить сеть/сервак запросами?

Редиректом надо предотвращать появление дублей, а исправлять ... может быть и долго.

Lambre:
Люди говорят хороший

Добрые были люди?

Вот выше выложены дубли, они как-то закрыты в роботсе?

А в какой теме сайт отвечающий всем правилам яндеса рентабелен?

И, если можно, все реальные правила тут выпишите. Сцылок на ихние представления не надо.

Lambre:
Люди говорят хороший так я его применил, думаете велючить и это? Disallow: /*?
богоносец:
У вас вообще есть не-дубли с ? в урле?

. ...

Точно-вхождение почти ничего не решает.

blackcarrot:
Яндекс сам решает откуда брать инфу для сниппет исходя из текста на вашей странице. есть ли точное вхождение фразы в тексте по этому запросу?

Не надо бредить...

jumbosic:
выдается какое-то непотребство из нижней части сайта

Проще заноуиндексить непотребство, чем читать

Старые основы http://romip.ru/romip2008/2008_13_Yandex.pdf

там достаточно важный момент.

Потом якобы стало обучаемым http://company.yandex.ru/technologies/search_results/?дебилы

http://help.yandex.ru/webmaster/?id=1111310&гавно#995339

Lambre:
да это дубль там стоит тег каноникал на нормальный адекватный URL на этот
Lambre:
вопрос почему тогда в гугле старые странице есть? на которых есть редирект 301 и они всё равно показываются как будто они есть. но ведь 301 должен решить эту проблему!

А вот тут и 404 есть. Можно предположить, что когда-то они были 200

Как выглядит процесс? Бот обращается... видит 301, принимает меры. Но можно сделать столько дублей, что на это всё боту понадобятся годы.

У вас вообще есть не-дубли с ? в урле?

А то может написать в роботсе Disallow: /*?

ps От того, что http://www.whitehouse.gov/?ненормативная☺лексика отвечает 200 OK — гуглоиды могут и руками дубли удалять (в целях недопущения ущерба национальному престижу). Но они не могут следить за каждым кривым магазином, сделанным без ТЗ:

— Нам нужен магазин.

— Вот пожалуйста магазин.

Lambre:
читал, что он нужен, чтобы указать ПС какую нужно индексировать страницу среди дублей

А может эти дубли просто не давать индексировать?

Ищите robots.txt, читайте хелпы ... смотрите на урлы дублей, закрывайте (если это возможно).

Можно было бы и не показывать ПС лишние ссылки... но в ТЗ на этом пункте наверное сэкономили, как и на нескольких ещё. Вот теперь решайте проблемы...

burunduk:
сайт заточенный под продвижение стоит от 500000 руб минимум, у основной массы заказчиков таких сумм нет

Сказки про PageRank Sculpting давно пора забыть.

Всего: 13653