- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
у меня было достаточно еду и гов с ПР. Не помогло
Ну значит они были с прямым вхождением ключа.
Приглашаю желающих поучаствовать в коллективном эксперименте с Google-Пингвином...
Приглашаю желающих поучаствовать в коллективном эксперименте с Google-Пингвином...
Критика: странный эксперимент - с одной стороны вроде АЖ четыре варианта развития эксперимента:
"Для тех сайтов, которые пострадали в конце апреля, мы применим один из методов выхода из-под фильтра, чтобы определить, какой из них является наиболее эффективным.
-Снять все ссылки с прямым вхождением ключей;
-Добавить безанкорные ссылки;
-Изменить анкоры существующих ссылок на безанкорные;
-Создать новый домен и сделать постраничный 301-ый редирект со старого.
"(c)devaka
Но если посмотрим внимательно - ОДИН вариант = понижение процента прямого вхождения и последний вариант - попытка уйти от фильтра через 301 (поможет ТОЛЬКО НА 2 НЕДЕЛИ)
Еще есть варианты эксперимента, кроме одного - понижения процента прямых тремя способами?
Так же упущена другая сторона медали: оптимизация и показатели по всем параметрам страницы, которая попала под фильтр. Сколько ключей в Тайтл, сколько в тексте, облака, футер с ключами, прочие фишки. Это целое направление и сильно разграничит по разным группам сайты, учавствующие в эксперименте. Поверьте мне - наблюдаю больше 20 сайтов разной величины.
Поверьте мне - наблюдаю больше 20 сайтов разной величины.
А у Вас есть какие-либо успехи вывода в ТОП сайтов которые попали под фильтр?
А у Вас есть какие-либо успехи вывода в ТОП сайтов которые попали под фильтр?
Успехи есть только по голой Панде. И один из наблюдаемых рапортовал о возврате 30% трафа. Остальные наблюдаются с 20 и 25 апреля - первый апдейт.
Все выведенные мной сайты были под одной Пандой. Но! Пингвин, на самом деле, просто автофильтр по анкор-листу, имхо. Они работают в паре с Пандой.
Сейчас я жду оф. инфу апдейта Панды. Поа признаков надвижения апдейта не вижу...
Еще есть варианты эксперимента, кроме одного - понижения процента прямых тремя способами?
Так же упущена другая сторона медали: оптимизация и показатели по всем параметрам страницы, которая попала под фильтр. Сколько ключей в Тайтл, сколько в тексте, облака, футер с ключами, прочие фишки. Это целое направление и сильно разграничит по разным группам сайты, учавствующие в эксперименте. Поверьте мне - наблюдаю больше 20 сайтов разной величины.
Юрий, спасибо за комментарий!
Вы абсолютно правы, методов можно применить намного больше, работая с контентом.
Однако, с точки зрения аналитики, мне очень проблематично массово измерять такие параметры, как кол-во ключей в тайтле, тексте, перелинковке (для каждого сайта надо знать ключи, а их может быть сотни). Это получится подробный аудит всех сайтов, а их уже добавили больше 30 :) Лучше оставим эту задачу на самих оптимизаторов, которые работают с проблемным ресурсом. Я абсолютно уверен, что наиболее эффективным будет поработать и с контентом и с ссылками. А в данном эксперименте хочется просто проверить, насколько каждый из методов в отдельности может помочь (среди описанных). По сути то мы избавляемся от спамности, а это можно сделать лишь уменьшая процент прямых вхождений.
Тогда еще подброшу проблему искажения результатов: есть сайты а) только Панда б) Панда+Пингвин в) только Пингвин.
В Вашик, уважаемый (честно) devaka, 30 сайтах в наблюдениях будут пациенты групп а, б и в. Причем, группа а и б не выводится снижением спама в анкор-листе. Только плюс внутренние работы!
группа а и б: по уникальному длинному куску текста в кавычках с зафильрованной странице НЕ на 1 месте. В саплиментал или 2-3я страница. Ниже копипаста, дорвеев и просто менее релевантных.
группа в: трафик упал на 70% но по куску текста уник на 1 месте. Новые страницы быстро и хорошо входят в индекс.
Ссылки на оф. источник нет. Это - лазер из космоса. Предложите хотя бы в эксперименте поделить сайты по наборам фильров: чистый Пингвин, или Панда+Пингвин, или чистая Панда... Послушайте меня, плз!
А так - Вы молодец! Сбор статся, анализ и действия - согласен!
Хотелось бы усшлышать мнение людей, как поступить в ситуации, если ссылки закупались вечные через ГГЛ. Их как то можно отменить? Или лучше новых безанкорных закупать?
западные сео-гуру считают, что пингвин оценивает не только анкор ссылки но и текст страницы где она находиться...
http://www.relevanceweb.com/blog/item/google-penguin-algorithm-review-2012
+ ссылки не должна быть в футере...
Ваши мнения??
западные сео-гуру считают, что пингвин оценивает не только анкор ссылки но и текст страницы где она находиться...
http://www.relevanceweb.com/blog/item/google-penguin-algorithm-review-2012
+ ссылки не должна быть в футере...
Ваши мнения??
Когда по ссылкам клацают - это добро. Ссылки с форумов- это добро. Футер - зло.
Имхо.
Автофутер с ключем = авто Панда (или Пингвин - еще точно не понял)