- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Ответ сотрудника гугла.
Я предполагаю, что всех интересует, на самом деле, какие сайты были задеты нашими последними алгоритмическими изменениями. Хочу подчеркнуть что наши принципы оценки качества и наше отношение к спаму остались неизменными, поэтому бессмысленно пытаться подстроиться под сиюминутные инженерные решения — они постоянно меняются и эволюционируют в зависимости от отношения к выдаче наших пользователей. Наша конечная цель сделать выдачу разнообразной и полезной, обеспечить пользователю удобство и безопасность поиска. Наполняя свой сайт содержимым всех типов, пожалуйста помните об этом.
А теперь немного конкретики: обилие ключевых слов нацеленных на привлечение поисковых роботов, копирование содержимого других сайтов с минимальными изменениями, наличие разнообразных попандеров, попапов усложняющих пользование сайтом, перенаправление большого процента трафика на партнерские программы — все это факторы, влияющие на ранжирование вашего сайта.
Но, для реализации любых алгоритмических изменений требуется время. Если, на данный момент, в выдаче находятся сайты не соответствующие нашим принципам качества, вполне вероятно что наши изменения пока что их не коснулись.
Вопрос в тему: а если не переезжать на новый домен - есть ли шанс вывернуться из-под зверя? И в какие сроки?
Наверно еще никто не знает такие ответы - но мало ли
Почему ж не знает... Очень даже знает... (с) Сталин И. В.
1. Удаляете из индекса ПС все что считаете подозрительным.
2. Ждете обновления инфы по KW об этой части сайта в WMT (чтоб наверняка),
3. за это время чистите то, что считаете вредным
4. ... и возвращаете в индекс.
5. Profit (если угадали в чем была проблема, конечно)
1. Удаляете из индекса ПС все что считаете подозрительным.
Есть быстрые методы?
Быстрый метод я уже 4тый день с ним вожусь)))
Зарегать новый домен перенести весь сайт на новый домен. В robots занести все дублирующее страницы написать скрипт отредактировать всю базу убрать на страницах выделения где много и убрать ссылки на другие ресурсы это все скриптом отредактировать главную и сделать уник meta name="description" content в каждой странице переделать меню и по мелочам. Просмотреть запросы перед вылетом и добавить информацию которой не хватает чтобы посетитель не уходил с сайта. Снять попандер если есть чтобы не отпугивать людей и поставить редерект 301 на те страницы что в robots чтобы в новом сайте не было нечего лишнего средний переспам был не больше 2% и поставить как все исправите 301 редерект на новый сайт. Это быстрый метод. )))
Как показала практика, переходить на новый домен не обязательно - достаточно очистить индекс ПС, если конечно нет переспама анкорами внешних ссылок.
Да 70% сайтов если не больше вытаскивать не имеет смысла ,если учитывать ответ работника гугла о сливе трафа на партнерки :)
Чтобы с сайтом не делалось, траф-то все-равно с такого сайта на партнерки нужно отдавать и фильтр опять придет.
Ответ сотрудника гугла.
Я предполагаю, что всех интересует, на самом деле, какие сайты были задеты нашими последними алгоритмическими изменениями. Хочу подчеркнуть что наши принципы оценки качества и наше отношение к спаму остались неизменными, поэтому бессмысленно пытаться подстроиться под сиюминутные инженерные решения — они постоянно меняются и эволюционируют в зависимости от отношения к выдаче наших пользователей. Наша конечная цель сделать выдачу разнообразной и полезной, обеспечить пользователю удобство и безопасность поиска. Наполняя свой сайт содержимым всех типов, пожалуйста помните об этом.
А теперь немного конкретики: обилие ключевых слов нацеленных на привлечение поисковых роботов, копирование содержимого других сайтов с минимальными изменениями, наличие разнообразных попандеров, попапов усложняющих пользование сайтом, перенаправление большого процента трафика на партнерские программы — все это факторы, влияющие на ранжирование вашего сайта.
Но, для реализации любых алгоритмических изменений требуется время. Если, на данный момент, в выдаче находятся сайты не соответствующие нашим принципам качества, вполне вероятно что наши изменения пока что их не коснулись.
А где источник этого ответа сотрудника гугла?
Sower добавил 30.05.2011 в 20:45
Да 70% сайтов если не больше вытаскивать не имеет смысла ,если учитывать ответ работника гугла о сливе трафа на партнерки :)
Чтобы с сайтом не делалось, траф-то все-равно с такого сайта на партнерки нужно отдавать и фильтр опять придет.
Можно завуалировать процесс слива трафа на партнёрки.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
А где источник этого ответа сотрудника гугла?
Справочный форум для веб-мастеров Google - Проблемы качества поиска - Спам в поисковой системе Google, тут :
http://www.google.com/support/forum/p/webmasters/thread?tid=59c67bba162c6958&hl=ru
Можно завуалировать процесс слива трафа на партнёрки.
Не секрет: как?
На ДП пишут, что Аякс уже "пробивается" Гуглом :(