какая то нереальная система
то что информация очищается обычное явление, а вот чтобы появлялась с тем же ID снова - нереальное явление
применяй генерацию уникальных идентификаторов - не используй для разной информации один и тот же ID - и не будет этой проблемы
если тематика одна все нормально
если разные и нет возможности выбора - сильно бесит
вот так стало у меня после последнего апдейта Р
Yandex 68 60.70%
Rambler 28 25.10%
Google 7.1 6.40%
Aport 2.6 2.30%
Search.Mail.ru 6 5.40%
у знакомого был случай - он поменял информацию в DNS zone - перешел к другому прову - так первые посетители сайта были роботы - типа гугла и еще кто-то прибежал
ну может я погорячился с терминами, но внешних ссылок на меня больше, в том числе и ссылок с нужным ключевиком
про то и речь, что это уже для Я в последнюю очередь можно рассматривать а когда разница до 30 позиций доходит модно и не рассматривать наверное
аргумент хороший - не поспоришь
а если кто-то из ссылок под непот попал?
я так и считал, но сейчас появились сомнения
что-то больно низкая позиция по второму ключевику у меня получилась по сравнению с конкурентами у которых виц явно меньше, а внутренние факторы у меня относительно неплохие
еще один момент
если сервер некорректно обрабатывает команду http HEAD / то сайт будет прекрасно виден в браузере, но чекающий робот Я решит что сайт недоступен. Столкнулся с таким вариантом в случае yaca, возможно подобное происходит и в данном случае.
а робот все забрал страницы?
IMHO неплохо сразу псевдостатику сделать
и роботы быстрее пройдут и в дальнейшем маневрировать легче будет.
кстати интересно как при таком переходе ASP-PHP оставить старые адреса, кроме главной конечно
так там базар ушел в какие-то дебри вебмастеринга и CMS
IMHO для webmastera намного удобней внутренние ( относительные ) ссылки, но я то спрашивал про разницу этих вариантов относительно поисковиков, то что роботы их (и те и другие) обойдут я не сомневаюсь, а вот в результате вес при генерации выдачи окажется одинаковым или нет?