У меня точно то, что ты описываешь. Тестил одну идею - буржусайтик с текстами и большим кол-вом НЧ, но без привязки к тематике, т.е. все скопом. Жил несколько месяцев без изменений в трафике. Вчера гугл его ранил, и отправил в сопли, жду что будет дальше с трафиком 🍿 Думаю через недельку должен остаться в пределах 500-1000 иил окончательно умереть :)
[ATTACH]125705[/ATTACH]
Это, в моем сео-языке, я называю "качели". Всего скорей, через пару дней или неделю будет опять 100к. У меня есть несколько серых-сайтов с миллионами страниц в индексе, там такое постоянно, причем может прыгать в 10 раз. Вначале 18 млн, потом 1.8 млн, потом 10 млн, потом 700к, потом 15 млн и т.д., результат правда всегда один - рано или поздно стабилизируется, в индексе 100-200к страниц и посещаемость около 500-1000 чел/сутки, причем траф какой-то супер левый - китайцы и прочая нечисть...
Пока у меня относительно апдейта особо никаких изменений, хотелось бы услышать, что и у остальных такая же картина..
Ну, как это реализовано для ПС без разницы. Ждите переиндексации. Если в разумный срок страницы не уйдут, останется два варианта:
1) Отказаться от переходов на http://ip, отдавая для этих страниц 404. Наверное, можно даже отдавать 404 с помощью header(), а саму страницу показывать. Но тут надо у тех "кто в курсе" поинтересоваться не воспримет ли ПС это как клоакинг.
2) Сделать скрипт, для автоудаления url-ов через вебмастер. Чтоб не заморачиваться с авторизациями, сессиями и прочей фигней, скрипт можно написать для GreaseMonkey, войти в аккаунт на нужную страницу, а он пусть уже отсылает поочередно url-ы. Если он будете добавлять по 2 url-а в минуту, то добавите все за пару ночей. Тут правда я не знаю, может там есть какие-то ограничения на кол-во url-ов.
Но, я думаю, что 301 редирект - это правильный выход. Может, еще есть смысл добавить в robots.txt:
Host: www.site.com
чтобы указать главное зеркало для Яндекса, если там такая же история..
Для начала, поставьте 301 редирект с http://ip на http://site.com
Для апача это можно сделать с помощью .htaccess, примерно так:
RewriteCond %{HTTP_HOST} !^www.site.comRewriteRule (.*) http://www.site.com/$1 [R=301,L]
Да ладно: Что такое поисковая сессия?
Кроме того в связи с этим:
[ATTACH]125117[/ATTACH]
я не думаю что санкции применяются к конкретной странице, потому что даже если бы это был хотя бы 1% запросов, то трафик бы не проседал за один день в 10 раз.
В любом случае, мне не чего Вам доказывать, я просто поделился своей историей. А каждый волен делать свои выводы.
Под сессией, я имею ввиду запрос юзера, который ищет нужный ему сайт, переходя по результатам поиска со страницы выдачи.Если упростить, то работает это так: когда вы нажимаете на первый результат и покидаете страницу, ПС запоминает время нажатия, когда нажимаете на второй, он считает разницу, и по этой разнице может ориентироваться на то, сколько вы времени провели на сайте до возвращения. Если нажать на ссылку в выдаче, то вы вначале перейдете по url от ПС, а потом вас отредиректят по назначению, это не спроста ;)Если усложнить, то сюда же прибавляются данные от статистики(google analytics), баров, браузеров и т.д.Но, это оффтопик, про это надо спрашивать и получать ответы в другом месте
У меня тоже есть проекты с похожей картиной, в ПН выросла посещаемость:
[ATTACH]125095[/ATTACH]
**последняя цифра в графике это значение "на сейчас", оно в процессе роста (сайт под us/ca траф, у них сейчас ночь).
Начните отсюда: показатель отказов
Я наверно один на этом форуме, который радуется за людей, которые чего-то добиваются 🍿
Однако, у меня есть один замечательный опыт. Не факт, что так будет у Вас, но все же..
Когда у меня на посещаемом проекте, с огромным кол-вом НЧ, прыгал трафик чуть ли не в 2 раза (я говорю о трафе 75-100к уников в день), через неделю он проседал в 10 раз, и дальше по убывающей.
Я предполагаю, что есть какой-то фактор, который гугл вычисляет следующим образом: после апдейта, ключевики сайта поднимаются чуть выше, сайт получает больше качественного трафа, дальше они смотрят, например, на кол-во отказов (просмотров страниц за одну сессию) и если этот параметр не вырос, значит сайт не качественный и скидывает его пониже.
Вот скриншот падений. (Взял из письма, где мы с товарищем обсуждали такое поведение на других проектах):
На скриншотах апрель месяц (так что если это глобальные санкции, то они уже затронули всех, кого могли)
[ATTACH]125094[/ATTACH]
В любом случае, это мои домыслы, напишите как будет развиваться ситуация через пару недель или месяц. Мне интересно.
Я обычно в такой ситуации после прикрепления домена закрываю его через htaccess так:
AuthType BasicAuthName "Password Protected Area"AuthUserFile /path/to/.htpasswdRequire valid-user
Разумеется надо парорль сгенерировать сюда: /path/to/.htpasswd
с помощью htpasswd
как только разработка закончена, то просто убираю авторизацию и гугл практически сразу все загоняет в индекс
Чтоб не было таких проблем, разрабатывайте в будущем на закрытом поддомене, это самый лучший вариант. И с него уже делайте копию на основной - так избавитесь от проблем с индексацией, да и не завалите работающий сайт, экспериментами.