Maxoud

Рейтинг
111
Регистрация
27.10.2006

Тогда плохо... Время исправит (восстановитесь), только несколько приземленные будете весь этот период.

Я очень рад что смог помочь.

Какая тема (ниша)? В двух словах, чтобы все карты не открывать.

Потому что редирект работает на уровне сервера, а не на уровне браузера. Браузер только получает ответ от сервера (как и Googlebot и другие боты).

У меня было подозрение, что «первый вариант» при запросе «нового» домена будет редиректить его на самого себя. А это — бесконечный цикл. Я не помню как ведет себя Apache именнол в этом случае, но, все равно второй вариант есть наверняка и пахнет классикой. А нам тут «новая волна» не нужна. Лишь бы работало всюду.

Я уже много лет выбираю второй вариант (точнее, мой, третий). См. выше.

Согласен с Z.

Z-Style:
Ну зачем позумерки?))

Тот же вопрос.

Добавлено:

Если с переездом не меняется структура (читай: семантика), ссылки внешние и внутренние и содержание, то ничего не изменится.

Не могу ответить точно, но есть две иллюстрации.

1. Года полтора назад за 6-7 месяцев сменил трех хостеров (при этом переехал из Европы в Штаты) — сайт улетел из Топа на несколько месяцев. Я устал ждать, убил его и сделал заново на другом домене (даже без редиректа со старого).

2. Сайт клиента после нашей с ним ссорой простоял 3 недели с одинаковыми страницами «Under construction» с ответом сервера 200 (другой мастер пытался разобраться в моем PHP и перелинковке :) ). Пока сайта фактически не было, Google показывал страницы на тех же местах с тем же тайтлом, только без description (с пустым сниппетом). Не помню был ли кэш старый и был ли он вообще (ни разу не интересовало). Позиции не потерялись вообще. Я вернулся, контент тоже вернулся, стоит на тех же местах, а кое-где даже подрос (естественные ссылки появились).

Вопрос: что сервер отдавал боту все эти пять дней?

Я давно этого не делал, поэтому рад буду сам вспомнить. Попробую вспомнить и заодно пару ссылок нарою.

Есть вопрос: есть ли доступ к настройкам сервера (файл httpd.conf)?

Maxoud добавил 03-12-2010 в 20:23

Нашел старое решение с новым тюнингом. Напишу в выходные, потому что пятница и я прямо сейчас еду на живой dub-step в кафешку.

tutonhamon_:
За битые ссылки под фильтр не попадают.

Сорри, я фильтры не упоминал. Я даже слова такого избегаю, ибо не никогда не фильтровался.

Знаю одно: если сайт пестрит битыми ссылками, то предельно ясно как он будет цениться.

В WMT есть инструмент для проверки robots.txt. Если он не видит файл, то, логично, дело не в файле.

Если же Google просто его игнорирует, то да, это он может.

P.S. Вместо того, чтобы показывать сотням ботов неизвестного назначения наличие каких-то папок типа /plugins или /libraries, правильнее бы настроить htaccess и отдавать 404 при запросе непубличных папок.

Anton33:
вчера всё сделал по первой! - РАБОТАЕТ!!

Но я сомневаюсь, что работает "правильно" - кто-то на форуме писал (не могу найти), что ГУГЛ более адекватно передаёт вес именно по второй схеме. Подтверждение этому я не нашёл, но и опровержения - тоже!

Значит редирект работает по двум схемам. Но как "лучше" для ГУГЛ (для передаваемого веса)? Знает кто?

Адекватно? Он в обоих случаях получает одно и то же. Редирект — он и в Африке редирект.

Единственное «но»: если старый домен не имел редиректа с «www» на «без www» (или наоборот), то второй вариант я бы написал так:

RewriteEngine on
RewriteCond %{HTTP_HOST} ^старыйдомен\.ru
RewriteCond %{HTTP_HOST} ^www\.старыйдомен\.ru
RewriteRule ^(.*)$ http://новыйдомен\.ru/$1 [R=301,L]
Всего: 1446