drg

Рейтинг
68
Регистрация
12.04.2004
The WishMaster:
Если б хотел побороть сапу - давно бы поборол. Да и вообще торговлю ссылками. Но, видать, это очень помогает яндексу выдавать релевантную выдачу;)

Релевантную выдачу по комерческим они могут и без сапы сделать с помощью директа, типа чем выше бюджет, тем круче сайт 😂

toha_138:
И так.
Делаем откровенный гомносайт, контент - генереный, тыренный, с кучей ключевиков.
Покупаем ссылки на сайт, делаем эдурл, в общем, все как надо.
И вот бот кушает главную пагу.
Юзеры начинают попадать на сайт через строку поиска яши.
Вопрос - будет ли жить в этом случае "гомносайт"?

В Я будет жить около года, если много страниц. (дело в том, чтобы Я определил Ваш контент как не уникальный должо пройти какоето время..)

В Г не будет жить. т.к. сайт около года будет находится на отдаленных позициях, за это время Г определит неуникальнось контента.

Помойму в IE8, 7, 6, в хроме и в болшенстве других проводников страницы 404 отображаются не хуже 200. или нет???🙅

понятно, спасибо, очень жаль, теперь придется 404 лепить. 🔥

DiAksID:
блин ;) если следовать моей логике то - указание всего лишь положения сайтмепа не должно отменять предыдущей директивы на запрет индексации всего сайта... что не понятно то?

Если не отменяется директива

Disallow: /

и все страницы запрещаются, тогда новая дериктива Sitemap

Sitemap: sitemap.xml

- разрешает индексировать указанные страницы в sitemap.xml, новая директива сильнее, правильно? ппц.

drg добавил 27.10.2009 в 21:44

читал. но не уверен в Вашей правоте.

DiAksID:
когда "узаконивали" директивы роботса о сайтмэпах и речи не было
директиву сайтмап в стандарт то ввели года два (?) назад.
и по идее - "закон обратной силы не имеет": старые директивы должны обрабатываться по старому, новые - только вносят новое, не меняя старое...

Если следовать такой логике, тогда получается что код в моем первом посту корректный; получается что если в роботсе все запретить, но строка о ситемап присутствует, то поисковик должен индексировать указанные URL, ведь ситемап там не просто так указан. (плюс еще в описаниях гугла написано, что ему пох на все, если присутствует строка Sitemap: xxx.xml) Блин, кто бы мог точно ответить, чтобы я не запортачил сайт своими экспериментами.

Str256:
Никак. Надо запретить все ненужные страницы.

запретить лишние страницы не пойдеть (их через чур много)

Никак - что вообще никак, никак???😕😕😕

Str256:
robots.txt нормально составить...

КАК?

semenov:
А в чем собственно проблема-то?

КАК написать в роботьсе так чтобы роботы сканировали только ситемап и выкидывали бы остальные страницы.

А как-нибудь более рационально разве НЕльзя? :(

Ясно, спс. просто нашел подобный пример в хелпе яндекса. Все-таки если возможность запретить все страницы кроме тех что в sitemap?

drg добавил 27.10.2009 в 20:45

semenov:
Сколько страниц в sitemap?

10000 ..................

Всего: 97