Сегодня заметил, что старый тур-сайт вообще нах из поиска выпал.
При этом, статистика в панели инструментов для веб-мастеров еще не среагировала, но ни по одному из обозначенных в ней переходов с позиций 1-10 вообще себя не нахожу.
Мудота с Гуглом полная.
Лучше использовать <meta name="canonical".... чтобы заменить старые урлы на новые. Поищи в справке Гугла подробности.
Про рсс ленту особенно понравилось.
Уважаемый, проблема в том, что если вашу рсс ленту начнут грабить агрегаторы с заоблачным числом внешних ссылок, то ваш сайт будет в .опе быстро и надолго.
То, что с Гуглом творится хрен знает что - факт и далеко ходить не надо вот вам пример улета магазина с ПР6 /ru/forum/375783
Там в самом низу страницы написано. Я для своих сайтов сделал страничку с сылками через разные поисковики Гугла. Правда я не заморачивался вычислением индекса, а просто смотрю сколько в саплиментале.
Короче, в саплиментале выдаются по запросу http://www.google.com/search?q=site%3Adomain+-inallurl%3Adomain&filter=0
А Гугла берете какой нужен.
2 Serega, проверьте свой сайт на предмет саплиментала
http://www.mapelli.info/tools/supplemental-index-ratio-calculator
Писать в WMT - бесполезно с точки зрения получения ответа, они ручные ответы не отсылают, только сообщения бота, когда их чел начинает обрабатывать Ваш запрос.
В последнее время у Гугла творятся непонятки со сканированием сайтмапов. На английском форуме вообще писали, что в их панели появляются какие-то левые сайтмапы. У меня тоже хрень полная.
Отношение Гугла к неуникальному содержанию определяется трастом сайта и внешними ссылками на страницу с таким содержанием.
Частота обновления статистики в панели инструментов веб-мастеров теперь определяется кучей всякой мудоты, которую Гугл называет качеством сайта: количество и качество внешних ссылок, частота обновления страниц, траст.
Получается, что сайт-новичек вообще не может расчитывать на статистику.
С алгоритмами у Гугла тоже похоже жопа образовалась.
Сайты скачут и в СЕРПе и в самом индексе, ако мустанги на просторах прерий.
Интересно было прочесть ответ сотрудника Гугл на их форуме поддержки, где недельные скачки в 50% страниц в индексе характеризовались как "естественные флуктуации". Исходя из этого, можно предположить, что естественным поведением для Гугл является хаос.
Если объем комментов будет раз в 10 больше того неуникума, то может и в саплимент не отправить.
Потому, как анализирует страницу вцелом.
Давайте по-порядку.
1. ПР сайта 1. Как теоретически можно его поднять:
- продвигать статьями;
- на блоге установить кнопки сервисов закладок, но это может дать результат, только тогда, когда много страниц и много посетителей.
По-этому, продвигать сайт по ВЧ и в англоязычном сегменте очень трудно - конкуренция бешеная.
2. Попырайтесь продвигать по НЧ. Опыт подсказывает, что НЧ дает хорошие результаты при ПР = 0, т.к. тут большое значение набирает частота ключевых. Но, для этого, Вам нужно увеличивать объём страниц, чтобы увеличить объём аудитории идущей с НЧ.
Всё это нужно делать комплексно, такова селяви англозоны.
Вообще не вижу никакого смысла в таких фокусах.
Если известна причина наложения фильтра, то её нужно устранить и обождать недельки 2-3 (это если фильтр не долго стоял) или сразу подать сайт на пересмотр (если фильтры были долго).
А пренос по редиректу - пустая трата времени:
1. Сам перенос, если сайт большой идет месяцами
2. Если причина наложения фильтров осталась, то новый домен уйдет под фильтры даже раньше, чем будет полностью завершен перенос домена.