Релевантную выдачу по комерческим они могут и без сапы сделать с помощью директа, типа чем выше бюджет, тем круче сайт 😂
В Я будет жить около года, если много страниц. (дело в том, чтобы Я определил Ваш контент как не уникальный должо пройти какоето время..)
В Г не будет жить. т.к. сайт около года будет находится на отдаленных позициях, за это время Г определит неуникальнось контента.
Помойму в IE8, 7, 6, в хроме и в болшенстве других проводников страницы 404 отображаются не хуже 200. или нет???🙅
понятно, спасибо, очень жаль, теперь придется 404 лепить. 🔥
Если не отменяется директива
Disallow: /
и все страницы запрещаются, тогда новая дериктива Sitemap
Sitemap: sitemap.xml
- разрешает индексировать указанные страницы в sitemap.xml, новая директива сильнее, правильно? ппц.
drg добавил 27.10.2009 в 21:44
читал. но не уверен в Вашей правоте.
Если следовать такой логике, тогда получается что код в моем первом посту корректный; получается что если в роботсе все запретить, но строка о ситемап присутствует, то поисковик должен индексировать указанные URL, ведь ситемап там не просто так указан. (плюс еще в описаниях гугла написано, что ему пох на все, если присутствует строка Sitemap: xxx.xml) Блин, кто бы мог точно ответить, чтобы я не запортачил сайт своими экспериментами.
запретить лишние страницы не пойдеть (их через чур много)
Никак - что вообще никак, никак???😕😕😕
КАК?
КАК написать в роботьсе так чтобы роботы сканировали только ситемап и выкидывали бы остальные страницы.
А как-нибудь более рационально разве НЕльзя? :(
Ясно, спс. просто нашел подобный пример в хелпе яндекса. Все-таки если возможность запретить все страницы кроме тех что в sitemap?
drg добавил 27.10.2009 в 20:45
10000 ..................