да. с точки зрения поисковика проблем сейчас нет и у меня. просто я хочу из основного домена убрать www.
сейчас мой блог открывается по всем трём адресам.
но редирект идет на www.site.com
всё, что я пытаюсь выяснить, это как сделать так, чтобы основной для всех трех адресов стал домен site.com (а не www.site.com)
в настройках Блоггера в качестве своего домена можно указать только www.site.com и поставить переадресацию с site.com на www.site.com (в обратную сторону не получается).
может, кому-то раньше удавалось решить эту задачу?
переформулирую вопрос:
у меня есть блог на блоггере
http://моеимя.blogspot.com
я зарегистрировал новый домен www.моеимя.com и в настройках блоггера "прикрутил" свой блог к этому домену.
вот что выдает мне Google в инструментах вебмастера:
1. при обращении к http://www.моеимя.com
содержимое моего блога
2. при обращении к http://моеимя.blogspot.com
HTTP/1.1 301 Moved Permanently
Location: http://www.моеимя.com/
3. при обращении к http://моеимя.com
HTTP/1.1 302 Found
вопрос: а можно ли сделать так, чтобы в качестве основного домена было моеимя.com (без www), на который был бы редирект с www.моеимя.com и с blogspota? и чтобы блог индексировался по моему домену без www, то есть в результатах поиска выдавался мой домен без www?
представить не могу. у меня слабое воображение. потому и спрашиваю.
почти поверил. но всё же, есть ли возможность не генерировать сессию для поискового робота?
если я включу такой код, это сработает?
if (!preg_match('/google/i', $_SERVER['HTTP_USER_AGENT'])) {session_start();}
но как же быть с $_SESSION?
допустим, робот в первый раз обращается к моей странице contact.php, индексирует сгенерированный php-скриптом код html, запомниает содержимое страницы и уходит. здесь вопросов нет. всё понятно.
при следующем обходе робот снова обращается к странице contact.php, но получив новый иденефикатор сессии и добавив его к адресу, уже воспринимает эту страницу как новую, хотя скрипт остался старый и сгенерированный html-код будет таким же, как и в предыдущй раз.
постепенно у робота будет складываться впечателение, что на моем сайте яко бы куча разных страниц но с одинаковым содержанием. и что потом? бан?
да. и хотя в строке браузера к адресу странички ничего не добавляется, но как я понял, поисковые роботы все равно добавляют невидимый $_SESSION к адресу и поэтому каждый раз интерпретируют его как новый.
я вас услышал. просто до сих пор склоняюсь к варианту №2 из-за того, что в моем php-коде используется сaptcha-скрипт для антиспам-контроля. так вот этот скрипт добавляет к php-файлу идентификатор сесссии, а я читал, что это плохо, так-как каждый раз заходя на эту страницу, поисковый робот будет интерпретировать её как дубликат уже имеющейся страницы, что опять плохо.
скачал lynx, который яко бы выводит страницы сайта так, как его воспринимает поисковый робот. проверил. действительно, каждый раз обращаясь к contact.php, выдается сообщение:
"cookie: PHPSESSID=....." (каждый раз новый)
В этом случае мне проще создать две страницы: contact.html (который будет индексироваться поисковым роботом) и отдельно contact.php (повторяющим содржимое первой страницы, но со скриптами, обрабатывающими данные формы), а потом запретить для индексации этот contact.php
если я во втором варианте в мета теге php-страницы укажу NAME="ROBOTS" CONTENT="NOINDEX" - это будет достаточно что бы поисковый робот проигнорировал эту страницу?