Не меняет. :) Если точность не волнует, используйте user_agent
О правильности такого подхода вам выше написали, решайте сами
Через .htaccess вам роботов yandex не отсечь.
В user_agent можно что угодно прописать.
По правильному, роботы определяются обратным dns запросом.
но если настаиваете, то ловите через HTTP_USER_AGENT
#old.ru
RewriteCond %{HTTP_USER_AGENT} yandex
RewriteCond %{REQUEST_URI} !^/old.ru/
RewriteCond %{HTTP_HOST} ^(www.)?old.ru$
RewriteRule ^(.*)$ http://www.new.ru/$1 [R=301,L]
#new.ru
RewriteCond %{HTTP_USER_AGENT} !yandex
RewriteCond %{REQUEST_URI} !^/new.ru/
RewriteCond %{HTTP_HOST} ^(www.)?new.ru$
RewriteRule ^(.*)$ http://www.old.ru/$1 [R=301,L]
1) Замените в заголовке header('Content-type: image/jpeg');
на header('Content-type: text/html');
если скрипт генерит предупреждения - увидите их. Потом верните назад, если все нормально.
2) в php.ini отключите выдачу предупреждений
error_reporting = E_ERROR
3) php должен быть собран с поддержкой GD. phpinfo() вам в помощь.
4) в /etc/conf.d/apache2 должна быть включена поддержка PHP
APACHE2_OPTS="-D DEFAULT_VHOST -D FASTCGI -D PHP5"---------- Добавлено 15.02.2015 в 15:46 ----------И да, rewrite для googlebot у вас не срабатывает, ищите в .htaccess ошибку
https://www.reg.ru/domain/new/rereg - рушки
http://www.expireddomains.net/ - буржуйские
Смысл есть. Только после снятия этого фильтра сайт будут проверять в ручном режиме на другие нарушения, в том числе на качество и количество текстов. Если сайт УГ, то эти проверки уже можете не пройти, получите ручные уже за содержание и только время потеряете.
Borisd, что изменилось с недавнего времени, просветите?
Мда, качественно на прошлой неделе Unix переставил. Траф с 60К -> 20К :(
Тут неплохо разжевано http://artdev.org/zaschita-ot-podmeny-reklamy.html#cut
.htaccess немного изменил
Что за бред. 7 лет отработал на фабрике ФилипМорис под Питером, производящем Мальборо. Табак импортный, строжащий американский контроль. Вероятно, соусы отличаются от американских, поэтому разница. Сам не курю, о вкусах судить не могу.
Эти переменные li получает из JavaScript,посмотрите их код, установленный на сайте, там все прозрачно. Другую часть данных аналитика получает из переменных сервера, такие как реферрер,юзер агент, ip. И все. Доступа к железу Гугл не имеет, если вы сами не ставите всякую шпионскую байду, типа хрома.
Другой аспект, что Гугл собирает информацию о ваших интересах, сканирую почту, посещаемые сайты, но не думаю, что это может использоваться для блокирования аккаунта