<? if (preg_match("/^www/", $_SERVER['HTTP_HOST'])) { header ("HTTP/1.1 404 Not Found"); } else { // отдаем контент } ?>
Хотя лучше отдавать не 404, а 301 редирект - чтоб не пропадали ссылки, проставляемые с ввв (могут ведь быть в природе естесственные ссылки? =))
Да и юзери некоторые не умеют без ввв адрес набирать =)
Валидация не влияет. Влияет работа мысли над кодом, которая обычно приводит в том числе и к валидации. Т.е. валидация и SEO кореллируют =) Но в том случае, если работать над кодом действительно с умом, а не втупую подстраиваться под валидатор (если втупую - может и хуже быть). А чтоб мысль работала, надо читать спецухи.
Вот она, лучшая определялка позиций =)
Отличная работа!
Обратите внимание, что формально это можно отнести к клоакингу, так что не нужно увлекаться и запихивать в дефолтные значения лишних ключевиков =)
if (!preg_match("/google/", $_SERVER['HTTP_USER_AGENT'])) { session_start(); $var = $_SESSION['var']; // и дальше все дела с сессиями } else { $var = 'default_value'; // устанавливаем вручную дефолтные значения нужных переменных и т.д. }
Моя практика подсказывает, что не стоит рыпаться, если все неплохо =) Если продвижение (проставление ссылок) идет с www - как правило проблем не возникает. Чуть начнешь химичить - и вот они, траблы. Как говорит мой батя - "Лучшее - враг хорошего" =)
Я бы посоветовал вернуть robots.txt в исходное состояние и запастись терпением. Как уже много раз повторяли, в этом деле терпение - одно из главных качеств =)
Хочется еще раз процитировать золотые, ИМХО, слова Николая Попкова: "Меняйтесь ссылками так, как будто поисковых систем не существует". Если следовать этому правилу, и вероятность нарваться на проблемы снижается, и пользователи пугаться не будут. Хотя, конечно, это требует значительно больше усилий, чем тупой копипэйст из писем по обмену. Любите свой сайт и своих посетителей, и будет вам счастье =)
MaxiK, не злитесь, все нормально =) так было, есть и будет - раздел для этого.
Топикстартер, для начала поднимите сайт из дауна - а то когда хост не отвечает,
это не способствует индексации =)))))
choupa, технология великолепная, но пользоваться ей надо только там, где она нужна - т.е. для создания сверхинтерактивных интерфейсов. JS поисковики не выполняют, за исключением выдирания ссылок из самых простых скриптом, и то по слухам. Никакой XMLHttpRequest ни один SE не поймет.
Проиндексированно будет только то, что есть в HTML-коде.
Ну, и ИМХО, организация на AJAX всего сайта скорее будет неудобна пользователю - непривычно, да и не совсем логично. К тому же, нельзя распространять ссылки на конкретный документ. Используйте HttpRequest для организации пользовательских панелей управления, которые не должны индексироваться поисковиками и на которые не нужно давать ссылки, или для отдельных сервисов, результаты работы которых, опять же, не нужно индексировать. Можно еще где-то что-то добавлять для удобства по мелочи, но делать целиком сайт по такой схеме - ИМХО не актуально.
Хотя, конечно, если надо сделать что-то промо-впечатляющее, не претендующие на позиции в поиске и на постоянных посетителей - можно и использовать для всего сайта.
А для firefox очень рекомендую вот это:
http://www.quirk.co.za/searchstatus/