Да, но важно чтобы индексная страница открывалась как и раньше, т.е. если это было "site.ru/index.php", то при "site.ru/newfolder/index.php" теряется вес главной страницы, хотя со временем он перейдет на новый адрес.
Для просто главной в виде "site.ru/" все аналогично.
Тогда нужно сделать новый каталог для новой версии сайта и сделать ее индексный файл корневым, чтобы сайт открывался сразу в этой папке, но по адресу сайта. Тогда главная обновится и появится новый сайт.
Если будет дублирующий контент, то все равно количество страниц уменьшиться, а также уменьшится PR, так как главная с большим PR будет ссылаться на новые страницы.
Если нужно сохранить все для ссылко-торговли, то создать новую версию сайта на старых урлах, а старую версию удалить. Это надо было изначально закладывать при разработке новой версии.
Согласен.
Единственный способ реальной защиты - не публиковать контент...
Лучше уделить время на быстрое попадание в индекс, чтобы не было "ты - последний" + писать для посетителей, так как если сайт хороший, то посетители будут приходить постоянно.
Список IP изменяется, чтобы черные оптимизаторы не смогли манипулировать результатами поиска.
Сайт можно выкачать с работающими куками программой offline explorer и его аналогов.
У меня есть подозрения, что гугл умеет работать с куками, так как у него есть сервис индексации разделов защищенных учетными данными, но большинство роботов не работают с куками, так как они приходят забрать контент и потом отдают его анализатору, который уже анализирует загруженную страницу. Поисковый робот по сути делает копию сайта у себя.
Поэтому если это делается ради защиты DDOSа, то в инете можно найти список юзер-агентов поисковиков и для них выдавать страницу после проверки агента, а для остальных через куки.
ИМХО: Если аудитория сайта профессиональные интернет-пользователи, то будут проблемы. Я по умолчанию блокирую куки для всех новых сайтов и открываю запись кук только для сайтов, которые мне нужны...
Официальные работы имеет стандартный юзер-агент, поэтому их можно обрабатывать через юзер-агент, но это смахивает на клоакинг
Рекомендую перенести старую версию сайта на поддомен и сделать редиректы в htaccess на старую версию.
Новую версию положить на основной домен, но положить все это в папку, чтобы не было пересечений со старыми урлами, при этом индексная страница в корне сайта должна открывать страницу в папке.
Это будет самым логичными вариантом, так как в этом случае будет два разных сайта, а если их оставит в рамках одного домена, то возможно посетитель запутается.
mgarkunov добавил 14.09.2009 в 10:37
Если нужен материал со старого сайта, то лучше его перенести в новый дизайн и версию сайта + сделать редирект со старого урла на новый.
Это будет лучше с имиджевой стороны, так как наличие двух вариантов сайта ради хороших материалов на старой версии сайта не есть гуд. Зачем продвигать две версии одного и того же сайта, когда можно сделать одну версию на основе старого и нового контента в новом дизайне?
С каких пор веб-мастера в партнерках определяют стоимость клика???
Скорость можно задавать через панель веб-мастера у гугла, а остальные поисковики вычисляют ее по своему алгоритму, но приоритет дает возможность указать страницы, которые нужно первыми проиндексировать.