Теперь с пандой мы друзья

S1
На сайте с 21.02.2009
Offline
45
#51

Ответ сотрудника гугла.

Я предполагаю, что всех интересует, на самом деле, какие сайты были задеты нашими последними алгоритмическими изменениями. Хочу подчеркнуть что наши принципы оценки качества и наше отношение к спаму остались неизменными, поэтому бессмысленно пытаться подстроиться под сиюминутные инженерные решения — они постоянно меняются и эволюционируют в зависимости от отношения к выдаче наших пользователей. Наша конечная цель сделать выдачу разнообразной и полезной, обеспечить пользователю удобство и безопасность поиска. Наполняя свой сайт содержимым всех типов, пожалуйста помните об этом.

А теперь немного конкретики: обилие ключевых слов нацеленных на привлечение поисковых роботов, копирование содержимого других сайтов с минимальными изменениями, наличие разнообразных попандеров, попапов усложняющих пользование сайтом, перенаправление большого процента трафика на партнерские программы — все это факторы, влияющие на ранжирование вашего сайта.

Но, для реализации любых алгоритмических изменений требуется время. Если, на данный момент, в выдаче находятся сайты не соответствующие нашим принципам качества, вполне вероятно что наши изменения пока что их не коснулись.

SilverMaster
На сайте с 08.10.2003
Offline
228
#52

Вопрос в тему: а если не переезжать на новый домен - есть ли шанс вывернуться из-под зверя? И в какие сроки?

Наверно еще никто не знает такие ответы - но мало ли

Из детских комшаров: "А вдруг ночью придет страшный робот!" Из взрослых: "И криво проиндексирует сайт". Не всякий гик добежит до середины поисковой страницы гугла
Z
На сайте с 13.10.2010
Offline
6
#53

Почему ж не знает... Очень даже знает... (с) Сталин И. В.

1. Удаляете из индекса ПС все что считаете подозрительным.

2. Ждете обновления инфы по KW об этой части сайта в WMT (чтоб наверняка),

3. за это время чистите то, что считаете вредным

4. ... и возвращаете в индекс.

5. Profit (если угадали в чем была проблема, конечно)

SilverMaster
На сайте с 08.10.2003
Offline
228
#54
zloberman:

1. Удаляете из индекса ПС все что считаете подозрительным.

Есть быстрые методы?

S1
На сайте с 21.02.2009
Offline
45
#55

Быстрый метод я уже 4тый день с ним вожусь)))

Зарегать новый домен перенести весь сайт на новый домен. В robots занести все дублирующее страницы написать скрипт отредактировать всю базу убрать на страницах выделения где много и убрать ссылки на другие ресурсы это все скриптом отредактировать главную и сделать уник meta name="description" content в каждой странице переделать меню и по мелочам. Просмотреть запросы перед вылетом и добавить информацию которой не хватает чтобы посетитель не уходил с сайта. Снять попандер если есть чтобы не отпугивать людей и поставить редерект 301 на те страницы что в robots чтобы в новом сайте не было нечего лишнего средний переспам был не больше 2% и поставить как все исправите 301 редерект на новый сайт. Это быстрый метод. )))

Z
На сайте с 13.10.2010
Offline
6
#56

Как показала практика, переходить на новый домен не обязательно - достаточно очистить индекс ПС, если конечно нет переспама анкорами внешних ссылок.

XPraptor
На сайте с 15.10.2004
Offline
333
#57

Да 70% сайтов если не больше вытаскивать не имеет смысла ,если учитывать ответ работника гугла о сливе трафа на партнерки :)

Чтобы с сайтом не делалось, траф-то все-равно с такого сайта на партнерки нужно отдавать и фильтр опять придет.

Sower
На сайте с 30.12.2009
Offline
659
#58
sergei1231:
Ответ сотрудника гугла.
Я предполагаю, что всех интересует, на самом деле, какие сайты были задеты нашими последними алгоритмическими изменениями. Хочу подчеркнуть что наши принципы оценки качества и наше отношение к спаму остались неизменными, поэтому бессмысленно пытаться подстроиться под сиюминутные инженерные решения — они постоянно меняются и эволюционируют в зависимости от отношения к выдаче наших пользователей. Наша конечная цель сделать выдачу разнообразной и полезной, обеспечить пользователю удобство и безопасность поиска. Наполняя свой сайт содержимым всех типов, пожалуйста помните об этом.

А теперь немного конкретики: обилие ключевых слов нацеленных на привлечение поисковых роботов, копирование содержимого других сайтов с минимальными изменениями, наличие разнообразных попандеров, попапов усложняющих пользование сайтом, перенаправление большого процента трафика на партнерские программы — все это факторы, влияющие на ранжирование вашего сайта.

Но, для реализации любых алгоритмических изменений требуется время. Если, на данный момент, в выдаче находятся сайты не соответствующие нашим принципам качества, вполне вероятно что наши изменения пока что их не коснулись.

А где источник этого ответа сотрудника гугла?

Sower добавил 30.05.2011 в 20:45

XPraptor:
Да 70% сайтов если не больше вытаскивать не имеет смысла ,если учитывать ответ работника гугла о сливе трафа на партнерки :)
Чтобы с сайтом не делалось, траф-то все-равно с такого сайта на партнерки нужно отдавать и фильтр опять придет.

Можно завуалировать процесс слива трафа на партнёрки.

__________________Бесплатная накрутка ПФ: посещаемость, просмотры, переходы с поисковиков по ключевикам, итд.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
ExpressAutoComUa
На сайте с 05.10.2008
Offline
87
#59
Sower:
А где источник этого ответа сотрудника гугла?

Справочный форум для веб-мастеров Google - Проблемы качества поиска - Спам в поисковой системе Google, тут :

http://www.google.com/support/forum/p/webmasters/thread?tid=59c67bba162c6958&hl=ru

У каждого сайта своя статистика.
kievrent
На сайте с 27.12.2009
Offline
206
#60
Sower:
Можно завуалировать процесс слива трафа на партнёрки.

Не секрет: как?

На ДП пишут, что Аякс уже "пробивается" Гуглом :(

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий