La5

Рейтинг
65
Регистрация
11.10.2009
Aspirantspb:
оказывается алгоритм "Payday Loan" был недавно (несколько дней назад) обновлен
см. http://www.articlesbase.com/seo-articles/google-to-update-search-algorithm-with-payday-loan-algorithm-6668403.html4

Пысы: судя по статье, основными жертвами станут сайты с
Таким образом - в основном и в первую очередь - это борьба с сайтами с нерелевантным контентом, использующих "популярные" запросы, чтобы привлечь посетителей. , а не борьба с сайтами по выдаче кредитов и порносайтами. Такие дела.

У меня точно то, что ты описываешь. Тестил одну идею - буржусайтик с текстами и большим кол-вом НЧ, но без привязки к тематике, т.е. все скопом. Жил несколько месяцев без изменений в трафике. Вчера гугл его ранил, и отправил в сопли, жду что будет дальше с трафиком 🍿 Думаю через недельку должен остаться в пределах 500-1000 иил окончательно умереть :)

[ATTACH]125705[/ATTACH]

png 125705.png
YuriDnepr:
Мои новости:

не знаю, как "многонедельное", может обновление разное по срокам в разной географии. Ну или поэтапное.

В общем - у меня по двум пациентам один этап закончился УЖЕ как и раньше: если смотреть напрямую индекс - лишние сопли уже отвалились. Например, со 100к страниц до 6600. Напрямую теперь именно так. В сервисах пока наоборот - показывает 103к.

Вот такая вот бесполезная инфа )))

Это, в моем сео-языке, я называю "качели". Всего скорей, через пару дней или неделю будет опять 100к. У меня есть несколько серых-сайтов с миллионами страниц в индексе, там такое постоянно, причем может прыгать в 10 раз. Вначале 18 млн, потом 1.8 млн, потом 10 млн, потом 700к, потом 15 млн и т.д., результат правда всегда один - рано или поздно стабилизируется, в индексе 100-200к страниц и посещаемость около 500-1000 чел/сутки, причем траф какой-то супер левый - китайцы и прочая нечисть...

Пока у меня относительно апдейта особо никаких изменений, хотелось бы услышать, что и у остальных такая же картина..

alimbey:
Спасибо.
Сначала сделал на php в стиле
if($_SERVER['HTTP_HOST']!='host.com'){ header('Location: http://host.com'.$_SERVER['REQUEST_URI'], true, 301);exit(); }
потом поменял на ваш вариант.

Ну, как это реализовано для ПС без разницы. Ждите переиндексации. Если в разумный срок страницы не уйдут, останется два варианта:

1) Отказаться от переходов на http://ip, отдавая для этих страниц 404. Наверное, можно даже отдавать 404 с помощью header(), а саму страницу показывать. Но тут надо у тех "кто в курсе" поинтересоваться не воспримет ли ПС это как клоакинг.

2) Сделать скрипт, для автоудаления url-ов через вебмастер. Чтоб не заморачиваться с авторизациями, сессиями и прочей фигней, скрипт можно написать для GreaseMonkey, войти в аккаунт на нужную страницу, а он пусть уже отсылает поочередно url-ы. Если он будете добавлять по 2 url-а в минуту, то добавите все за пару ночей. Тут правда я не знаю, может там есть какие-то ограничения на кол-во url-ов.

Но, я думаю, что 301 редирект - это правильный выход. Может, еще есть смысл добавить в robots.txt:

Host: www.site.com

чтобы указать главное зеркало для Яндекса, если там такая же история..

Для начала, поставьте 301 редирект с http://ip на http://site.com

Для апача это можно сделать с помощью .htaccess, примерно так:


RewriteCond %{HTTP_HOST} !^www.site.com
RewriteRule (.*) http://www.site.com/$1 [R=301,L]
RiDDi:
Никакой "сессии" тут нет

Да ладно: Что такое поисковая сессия?

RiDDi:
И "скидывается" не сайт, а конкретная страница по конкретному запросу.

Кроме того в связи с этим:

[ATTACH]125117[/ATTACH]

я не думаю что санкции применяются к конкретной странице, потому что даже если бы это был хотя бы 1% запросов, то трафик бы не проседал за один день в 10 раз.

В любом случае, мне не чего Вам доказывать, я просто поделился своей историей. А каждый волен делать свои выводы.

png 123.png
domen4you:
интересно, как ПС в сессию залазит


Под сессией, я имею ввиду запрос юзера, который ищет нужный ему сайт, переходя по результатам поиска со страницы выдачи.

Если упростить, то работает это так: когда вы нажимаете на первый результат и покидаете страницу, ПС запоминает время нажатия, когда нажимаете на второй, он считает разницу, и по этой разнице может ориентироваться на то, сколько вы времени провели на сайте до возвращения. Если нажать на ссылку в выдаче, то вы вначале перейдете по url от ПС, а потом вас отредиректят по назначению, это не спроста ;)

Если усложнить, то сюда же прибавляются данные от статистики(google analytics), баров, браузеров и т.д.

Но, это оффтопик, про это надо спрашивать и получать ответы в другом месте

El_grapaduro:
У меня похожая ситуация. Я читал в буржунете, щас не могу найти. Это типа твои конкруенты попадают под пингвин если, то тебе даются бонусы с их позиций. То есть твой сайт показывается на нескольких позициях по адским вч и тп, потому что нечем заменить. Есть BLOOP - back link over optomization penalty
А вот это явление называют в bBLOOP Типа bonus of back link over optomization penalty.

Вот мой график трафика на последние дни.

У меня тоже есть проекты с похожей картиной, в ПН выросла посещаемость:

[ATTACH]125095[/ATTACH]

**последняя цифра в графике это значение "на сейчас", оно в процессе роста (сайт под us/ca траф, у них сейчас ночь).

png example.png
domen4you:
они могут такое проследить? Как?

Начните отсюда: показатель отказов

pro_web:
Вы как то сурово все настроены...
Да каюсь был инцидент благодаря которому меня все минусовали.
Но все же понял что лучше оптимизировать хорошо сайт и дело пойдет в гору

Я наверно один на этом форуме, который радуется за людей, которые чего-то добиваются 🍿

Однако, у меня есть один замечательный опыт. Не факт, что так будет у Вас, но все же..

Когда у меня на посещаемом проекте, с огромным кол-вом НЧ, прыгал трафик чуть ли не в 2 раза (я говорю о трафе 75-100к уников в день), через неделю он проседал в 10 раз, и дальше по убывающей.

Я предполагаю, что есть какой-то фактор, который гугл вычисляет следующим образом: после апдейта, ключевики сайта поднимаются чуть выше, сайт получает больше качественного трафа, дальше они смотрят, например, на кол-во отказов (просмотров страниц за одну сессию) и если этот параметр не вырос, значит сайт не качественный и скидывает его пониже.

Вот скриншот падений. (Взял из письма, где мы с товарищем обсуждали такое поведение на других проектах):

На скриншотах апрель месяц (так что если это глобальные санкции, то они уже затронули всех, кого могли)

[ATTACH]125094[/ATTACH]

В любом случае, это мои домыслы, напишите как будет развиваться ситуация через пару недель или месяц. Мне интересно.

jpg example.jpg

Я обычно в такой ситуации после прикрепления домена закрываю его через htaccess так:


AuthType Basic
AuthName "Password Protected Area"
AuthUserFile /path/to/.htpasswd
Require valid-user

Разумеется надо парорль сгенерировать сюда: /path/to/.htpasswd

с помощью htpasswd

как только разработка закончена, то просто убираю авторизацию и гугл практически сразу все загоняет в индекс

Чтоб не было таких проблем, разрабатывайте в будущем на закрытом поддомене, это самый лучший вариант. И с него уже делайте копию на основной - так избавитесь от проблем с индексацией, да и не завалите работающий сайт, экспериментами.

Всего: 67