- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторитетные сайты зачем опускать то?
По принципу - "ты хороший, на тебе!"?)
Авторитетные сайты зачем опускать то?
По принципу - "ты хороший, на тебе!"?)
В воспитательных целях)
Выдача хуже не станет (если все будет сделано правильно), а вот оптимизаторы должны задуматься над методами продвижения (по крайней мере, думаю, такова цель гугла).
оптимизаторы должны задуматься над методами продвижения
ну, допустим, задумаются. Подумают и найдут другие методы ;)
Даже если завтра наглухо перестанут работать профиля и все футерные ссылки - оптимизаторы за пару недель найдут новое решение задачи. Департамент Матвея в Гугле не может пока предложить эффективных методов зачистки ТОПа от манипуляций и сайтов, попавших туда благодаря купленным ссылкам.
Вся более-менее востребованная информация в интернете дублируется десятки или даже сотни раз. Если гугл опустит в выдаче какие-то авторитетные сайты, их место займут другие, не менее авторитетные. Пользователь этого даже и не заметит, а может даже и наоборот - почувствует улучшение выдачи, смотря насколько будет эффективен новый алгоритм и насколько правильно он будет учитывать ПФ и другие факторы.
А как же новые потенциальные "авторитеты", которые, как практически любой серьезный ресурс, будут продвигаться коммерческими методами? Захотят ли они "связываться" с Гугл, если он установит фильтры на продвижение не естественными ссылками? Повторюсь: Гугл, если установит тиранию, просто лишится этой, так сказать, новой крови. А без "новой крови" Гугл оскуднеет. Есть же и другие поисковики-конкуренты, которые только и ждут, чтобы занять место Гугл...
Мигающие продажные сапоссылки вычисляются элементарно. Единственный фактор, сдерживающий введение фильтра продажных ссылок была, видимо, небезосновательная боязнь, что выдача превратится в кашу. За последнее время ПС видимо сделали неплохие наработки по учету других факторов (того же ПФ) и вот гугл наконец решил, что готов прикрутить влияние продажных ссылок, заменив их другими факторами. Чем это закончится, думаю увидим в ближайшее время. Если эксперимент будет успешным, то яша тоже не заставить себя ждать и введет свои новшества.
---------- Добавлено 14.03.2012 в 12:26 ----------
ну, допустим, задумаются. Подумают и найдут другие методы ;)
Даже если завтра наглухо перестанут работать профиля и все футерные ссылки - оптимизаторы за пару недель найдут новое решение задачи.
Конечно найдут, но это будут скорее всего чуть более белые решения. Например, то же продвижение статьями, социалки. Оптимизаторы, хотят того или нет, двигаются туда, куда их подталкивают ПС.
Департамент Матвея в Гугле не может пока предложить эффективных методов зачистки ТОПа от манипуляций и сайтов, попавших туда благодаря купленным ссылкам.
Думаю, может, но это нельзя делать сразу.
---------- Добавлено 14.03.2012 в 12:33 ----------
А как же новые потенциальные "авторитеты", которые, как практически любой серьезный ресурс, будут продвигаться коммерческими методами? Захотят ли они "связываться" с Гугл, если он установит фильтры на продвижение не естественными ссылками? Повторюсь: Гугл, если установит тиранию, просто лишится этой, так сказать, новой крови. А без "новой крови" Гугл оскуднеет. Есть же и другие поисковики-конкуренты, которые только и ждут, чтобы занять место Гугл...
Без новых "перспективных" ГСЛДов гугл не оскуднеет, это уж точно))
Ну и потом, кто говорит о полной фильтрации покупного ссылочного? Речь скорее всего пока идет о мигающих сапоссылках. И не резкой, а постепенной фильтрации, по мере понимания этих идей оптимизаторами. Все это имхо, конечно.
---------- Добавлено 14.03.2012 в 12:35 ----------
Думаю, в ближайшее время будут рулить статьи и вечные ссылки.
Из личного опыта. Посмотрите на DP предложения оптимизаторов и убедитесь.
ну там полно индусов, которые пообещают все, что угодно с одноразовой оплатой вывести.
Из личного опыта - никогда бы не взялся двигать что-то стоящее (во всех смыслах), если это только не региональный нч, да и я вижу как другие работают - котракт на год минимум.
Конечно найдут, но это будут скорее всего чуть более белые решения. Например, то же продвижение статьями, социалки. Оптимизаторы, хотят того или нет, двигаются туда, куда их подталкивают ПС.
Ага, белые как снег в Москве. Будут искать куда еще ссылок напихать да и все, вернее не будут а постоянно ищут и находят. К тому же в в социалках и в статейном продвижении есть куда далеко не белых методов.
Ага, белые как снег в Москве. Будут искать куда еще ссылок напихать да и все, вернее не будут а постоянно ищут и находят.
Да, но не все. Многие ищут методы, работающие не до ближайшего апдейта алгоритма.
Показатели вроде не просели, только посещалка снизилась - но я скорее связываю это с началом весны, нежели с новыми преобразованиями в Гугле!
Да, но не все. Многие ищут методы, работающие не до ближайшего апдейта алгоритма.
нужно использовать все что работает, в разумных пределах конечно. Многие серые и черные технологии работают уже по 5-6 лет отлично, естественно эффективность может снижаться, но и производственные мощности растут :). Еще не было такого метода продвижения который бы перестал работать в течение 2-3 апдейтов алгоритма. И вообще, главное, это постоянно что то новое пробовать и не бояться отправлять в бан тестовые сайты, чтобы знать границу.