Количество контента с несколькими сайтами примерно одинаковое. Вот на ГС, которые заняли места в топе начиная с 4 по некоторым запросам, красуются заспамленные ключами куски копипаста.
В борьбе с последними сменами алгоритмов Google я провел эксперимент. Вот его результаты:
1. Была страница, 3 ур.вложенности. Заточена под запрос из 2 слов с привязкой к городу.
2. Эта страница, до изменений в алгоритмах, была жестко на 2 позиции около года, вслед за крупным региональным порталом.
3. Ссылок на эту страницу 2 (морды региональных ресурсов), которые поставлены несколько месяцев назад.
4. В начале смены алгоритмов на странице было 4000 символов без пробелов, 4 точного вхождения ключа и 2 разбавленного.
5. Сейчас на странице 2700 символов без пробелов. Точного вхождения ключа 2 и еще 2 разбавленного.
6. Сегодня с утра запрос вернулся на 5 место, причем сначала вылазила Главная, на которой нет упоминания этого НЧ запроса. Там ВЧ без привязки к региону.
7. Вот, буквально, час назад в выдаче появился нужный внутряк - позиция осталась прежней.
Что я для себя уяснил из этого эксперимента:
1. Небольшая закупка ссылок на эту страницу не дала никакого эффекта, можно сказать даже немного отрицательный эффект стал наблюдаться, т.к. диапазон скачков в выдаче увеличился с отрицательную сторону.
2. Влияние контента явно увеличилось и теперь еще жестче стало угадать с рамками внутренней оптимизации сайта, т.к. теперь влияние h1, h2 и других тэгов форматирования и выделения стало более расплывчатым и неоднозначным.
3. Это пункт, как мне кажется бред, но все же я его озвучу. Т.к. теперь, как мне кажется, для того, чтобы та или иная страница попала в индекс не достаточно просто написать "уникальный" материал, разместить его и проставить несколько ссылок. Теперь действия, которые необходимо проделать для того или иного сайта - различны. Попробую объяснить на пальцах.
К примеру, есть крупный профильный портал с 10-летним доменом, множеством материалов и естественных ссылок. По НЧ запросу он всегда находился в топ3 скажем. Теперь он на 1 позиции, хотя страница, которая выдается по запросу, практически не оптимизирована под этот запрос с точки зрения тэгов, перелинковки и т.д. и текста на странице минимум - 500 символов.
Теперь берем типичный ГС или дор, которых сейчас в выдаче на высоких позициях предостаточно. У них нет ни старого домена, ни хороших текстов, но есть куча гавноссылок и заспамленные простыни контента.
Берем СДЛ небольшой конторки, которому, к примеру, 2 года. Хороший дизайн, чистый код, более-менее качественный контент и ссылки. Проведенная качественная оптимизация кода. И этот сайт дай бог в топ 15 по очень очень НЧ.
К чему я веду? К тому, что для СДЛ, крупного портала и дора теперь есть какие-то стандарты попадания в топ.
Гугловцы говорили о том, что хотят показывать самую свежую информацию. Вот, например, доры - это видимо свежая информация в новом виде. И она в топе. Старый портал - это так называемый "траст" - он остался незыблем. А небольшие СДЛ теперь должны ориентироваться на часто обновляемые контент, старые ссылки (как в буржуйнете) и идеальную оптимизацию, которая теперь для каждого своя.
Ребята, вся эта писанина не является 100% фактом. Это мысли вслух, которые появлялись в процессе борьбы с гуглом и наблюдений. Я хочу услышать Ваши мысли по этому поводу. Может, я уже сошел с ума?
Попробуйте уменьшить вхождение ключа в текст. 60 раз - мягко сказать, многовато, если конечно у Вас не под 8500 тысяч слов простыня, что тоже очень много. Сделайте, по возможности, 4-5% вхождения и загоните на сайт пауков, посредством нескольких жирных ссылок. Если запрос начнет возвращаться из недр Яндекса - начинайте экспериментировать с плотностью ключей. А с Платоном лучше оперировать фактами, с вопросом "Почему.... ?" он наврядли ответит что-то по делу - получите стандартную отписку.
А то, что он висит в Гугле - это может временное явление. Сейчас сайты быстро вылетают и быстро возвращаются по разным, а, иногда, и странным причинам.
Ну если это торговая марка, или в домене - это названия предприятия - то лучше делать одинаковые, да и по названию будет вылазить. А в принципе, особой роли это не играть. Так что как Вам больше нравиться, так и делайте.
Берите домен *.kiev.ua. У меня несколько проектов, распределенных по городам. Основной сайт с доменом *.ua есть в региональной выдаче, но позади сайтов региональных представительств по запросам с привязкой к городу.
Попробуйте поставить ссылки на страницу http://, если страница покинула индекс не из-за склейки, должна вернуться.
Вот тут можно посмотреть http://robotstxt.org.ru/. Также, рекомендации есть информация в панели вебмастера Яндекса.
C помощью robots.txt. Но если страницы склеились, то закрывать нет смысла - пропадут обе страницы из индекса.
Может быть Google страницу с http:// не склеил, а просто убрал в дополнительный индекс? Поэтому она и выпала из основного индекса. Проверьте эту страницу на наличие в дополнительном индексе.
А по поводу страницы https:// могу посоветовать Вам закрыть ее от индексации. Она ведь используется для почты. Или на ней есть важная информация и Вы ее продвигаете?
На некоторых страницах было явно много ключевых слов. Порядка 10-12% от общего количества.
По некоторым запросам в топ10 появились сайты сомнительного качества, не совсем доры, но по логике вещей им в топ10 явно не место (домену 2 месяца, куча спамного текста и признаки работы хрумера в бэках).
Хочу поделиться своими наблюдениями.
У меня сайт тоже улетел полтора месяца назад на 80 позиции по многим запросам - был топ3. Я сначала решил, что за переспам ключами (был такой грешок на некоторых страницах). Подправил (сделал 4-5%) все страницы, сайт вернулся на 30-50 позиции и все - мертво стоит уже месяц. Теперь по поводу ссылок - их был минимум, и все со своих сайтов. Т.е. никаких сап и прочего. Благо тематика узкая и позволяет обходится малым количеством ссылок. Как видите, я ссылочное вообще не наращивал, т.е. сайт держался за счет контента около года в топ3. Все это время позиции прыгают по некоторым ключам +- 10-20, по некоторым +-2-5, а бывают дни, когда улетает за 200.
Т.е. можно предположить, что изначально меня покарал Гугл за переспам, я все поправил, но он не вернул на прежние позиции, а заставил танцевать в топ50. Получается, что некоторых он наказывает за ссылки, а меня за то, что их видать стало недостаточно для того, чтобы держать сайт узкой тематике по региону в топе.
Вот я и призадумался о том, что для НК запросов теперь поднялось влияние ссылочного. Может они пересчитывают влияние текста и ссылок на НК и НЧ. Этим можно объяснить появление доров в топе, выпадения сайтов, которые закупались по одной схеме и т.д.
Чувствую, еще долго нам Caffeine не даст скучать