Коля Дубр

Коля Дубр
Рейтинг
153
Регистрация
02.03.2005
Должность
NetCat
Интересы
cms, музыка, лингвистика


<?
if (preg_match("/^www/", $_SERVER['HTTP_HOST'])) {
header ("HTTP/1.1 404 Not Found");
} else {
// отдаем контент
}
?>

Хотя лучше отдавать не 404, а 301 редирект - чтоб не пропадали ссылки, проставляемые с ввв (могут ведь быть в природе естесственные ссылки? =))

Да и юзери некоторые не умеют без ввв адрес набирать =)

Валидация не влияет. Влияет работа мысли над кодом, которая обычно приводит в том числе и к валидации. Т.е. валидация и SEO кореллируют =) Но в том случае, если работать над кодом действительно с умом, а не втупую подстраиваться под валидатор (если втупую - может и хуже быть). А чтоб мысль работала, надо читать спецухи.

Вот она, лучшая определялка позиций =)

Отличная работа!

Обратите внимание, что формально это можно отнести к клоакингу, так что не нужно увлекаться и запихивать в дефолтные значения лишних ключевиков =)


if (!preg_match("/google/", $_SERVER['HTTP_USER_AGENT'])) {
session_start();
$var = $_SESSION['var'];
// и дальше все дела с сессиями
} else {
$var = 'default_value';
// устанавливаем вручную дефолтные значения нужных переменных и т.д.
}

Моя практика подсказывает, что не стоит рыпаться, если все неплохо =) Если продвижение (проставление ссылок) идет с www - как правило проблем не возникает. Чуть начнешь химичить - и вот они, траблы. Как говорит мой батя - "Лучшее - враг хорошего" =)

Я бы посоветовал вернуть robots.txt в исходное состояние и запастись терпением. Как уже много раз повторяли, в этом деле терпение - одно из главных качеств =)

Хочется еще раз процитировать золотые, ИМХО, слова Николая Попкова: "Меняйтесь ссылками так, как будто поисковых систем не существует". Если следовать этому правилу, и вероятность нарваться на проблемы снижается, и пользователи пугаться не будут. Хотя, конечно, это требует значительно больше усилий, чем тупой копипэйст из писем по обмену. Любите свой сайт и своих посетителей, и будет вам счастье =)

MaxiK, не злитесь, все нормально =) так было, есть и будет - раздел для этого.

Топикстартер, для начала поднимите сайт из дауна - а то когда хост не отвечает,

это не способствует индексации =)))))

choupa, технология великолепная, но пользоваться ей надо только там, где она нужна - т.е. для создания сверхинтерактивных интерфейсов. JS поисковики не выполняют, за исключением выдирания ссылок из самых простых скриптом, и то по слухам. Никакой XMLHttpRequest ни один SE не поймет.

Проиндексированно будет только то, что есть в HTML-коде.

Ну, и ИМХО, организация на AJAX всего сайта скорее будет неудобна пользователю - непривычно, да и не совсем логично. К тому же, нельзя распространять ссылки на конкретный документ. Используйте HttpRequest для организации пользовательских панелей управления, которые не должны индексироваться поисковиками и на которые не нужно давать ссылки, или для отдельных сервисов, результаты работы которых, опять же, не нужно индексировать. Можно еще где-то что-то добавлять для удобства по мелочи, но делать целиком сайт по такой схеме - ИМХО не актуально.

Хотя, конечно, если надо сделать что-то промо-впечатляющее, не претендующие на позиции в поиске и на постоянных посетителей - можно и использовать для всего сайта.

А для firefox очень рекомендую вот это:

http://www.quirk.co.za/searchstatus/

Всего: 1529