mgarkunov

mgarkunov
Рейтинг
130
Регистрация
23.03.2009
A-des:
Значит, заливаю новый сайт на поддиректорию сайта и прописываю в хтаксессе этот индекс файл.

Да, но важно чтобы индексная страница открывалась как и раньше, т.е. если это было "site.ru/index.php", то при "site.ru/newfolder/index.php" теряется вес главной страницы, хотя со временем он перейдет на новый адрес.

Для просто главной в виде "site.ru/" все аналогично.

A-des:
Собственно старая версия нужна исключительно для линко и текстоторговли. Переход посетителей на него нежелателен, тем не менее будут ссылки типа "old version".

Тогда нужно сделать новый каталог для новой версии сайта и сделать ее индексный файл корневым, чтобы сайт открывался сразу в этой папке, но по адресу сайта. Тогда главная обновится и появится новый сайт.

A-des:
Основная задача - сохранить такие показатели как пузо и число страниц в индексе.

Если будет дублирующий контент, то все равно количество страниц уменьшиться, а также уменьшится PR, так как главная с большим PR будет ссылаться на новые страницы.

Если нужно сохранить все для ссылко-торговли, то создать новую версию сайта на старых урлах, а старую версию удалить. Это надо было изначально закладывать при разработке новой версии.

Iso:
Но я не верю в осмысленность всей этой деятельности - контент всё равно уведут, если захотят

Согласен.

Единственный способ реальной защиты - не публиковать контент...

Лучше уделить время на быстрое попадание в индекс, чтобы не было "ты - последний" + писать для посетителей, так как если сайт хороший, то посетители будут приходить постоянно.

Iso:
Если отличать поисковики, то по IP, а не по агенту.

Список IP изменяется, чтобы черные оптимизаторы не смогли манипулировать результатами поиска.

greysniper:
на сайте есть контент который периодически пятаюстся сграбить парсерами вот это одна из линий обороны

Сайт можно выкачать с работающими куками программой offline explorer и его аналогов.

greysniper:
Там нет клоакинга я просто выключаю сайт в случае если браузер не принимает кукисы на оформлении страницы это никак не отражается

У меня есть подозрения, что гугл умеет работать с куками, так как у него есть сервис индексации разделов защищенных учетными данными, но большинство роботов не работают с куками, так как они приходят забрать контент и потом отдают его анализатору, который уже анализирует загруженную страницу. Поисковый робот по сути делает копию сайта у себя.

Поэтому если это делается ради защиты DDOSа, то в инете можно найти список юзер-агентов поисковиков и для них выдавать страницу после проверки агента, а для остальных через куки.

ИМХО: Если аудитория сайта профессиональные интернет-пользователи, то будут проблемы. Я по умолчанию блокирую куки для всех новых сайтов и открываю запись кук только для сайтов, которые мне нужны...

greysniper:
Вопрос: поисковые роботы по умолчанию также как и обычный браузер принимает кукисы ? а то боюсь что гугл боту и ядекс боту будет показываться страница не та

Официальные работы имеет стандартный юзер-агент, поэтому их можно обрабатывать через юзер-агент, но это смахивает на клоакинг

Рекомендую перенести старую версию сайта на поддомен и сделать редиректы в htaccess на старую версию.

Новую версию положить на основной домен, но положить все это в папку, чтобы не было пересечений со старыми урлами, при этом индексная страница в корне сайта должна открывать страницу в папке.

Это будет самым логичными вариантом, так как в этом случае будет два разных сайта, а если их оставит в рамках одного домена, то возможно посетитель запутается.

mgarkunov добавил 14.09.2009 в 10:37

A-des:
с главной нового сайта буду пару ссылок на старую версию и собственно сам редирект при заходе на главную

Если нужен материал со старого сайта, то лучше его перенести в новый дизайн и версию сайта + сделать редирект со старого урла на новый.

Это будет лучше с имиджевой стороны, так как наличие двух вариантов сайта ради хороших материалов на старой версии сайта не есть гуд. Зачем продвигать две версии одного и того же сайта, когда можно сделать одну версию на основе старого и нового контента в новом дизайне?

xmypuk24:
можете сами поставить цену за клик

С каких пор веб-мастера в партнерках определяют стоимость клика???

Оу!:
1. Зачем же тогда давать эти указания поисковому роботу, если на скорость индексации и выдачу это не влияет?

Скорость можно задавать через панель веб-мастера у гугла, а остальные поисковики вычисляют ее по своему алгоритму, но приоритет дает возможность указать страницы, которые нужно первыми проиндексировать.

Всего: 1586