- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
В соседней ветке наши многоуважаемые гуру подняли снова вопрос о ссылочных фильтрах. Не стал писать туда, думаю тема достойна отдельной ветки.
Итак о пресловутом фильтре одинаковых ссылок или как многие любят говорить - "склейке" ссылок. Этого фильтра нет и быть не может в принципе. Представим простую ситуацию, оптимизатор Вася, получив хороший заказ покупает жирные морды, например ПР5 и ПР6. И через некоторое время закономерно радуется достигнутому результату.
В это время его конкурент, оптимизатор Петя, добавляет в массовом порядке совершенно идентичные ссылки на сайт Васи с различных ссылочных помоек, желая "поклеить" жирные морды и тем самым снизить их вес. И если таковой фильтр существует, то логично, что Петя своего добьется. Это означает, что в алгоритме есть огромная "дыра", позволяющая "пессимизировать" внешними факторами любой сайт, что в корне не верно. Отсюда делаем вывод, что на вес ссылки могут влиять исключительно внутренние факторы того сайта, где ссылка размещена, а также сама ссылка - например ее текст.
Ну и в заключении, по традиции, все вышесказанное - исключительно личное мнение. Прозвучавшие имена - вымышленые :)
Ни знаю как это назвать, склейка или еще как, но посмотри сейчас беки у сайтов ... У многих на первой показывает допустим 530 беков, а на последней за частую и по 30. Как ты это объяснишь?
Далее, факт пропадания беков при простановке одинаковых ссылок есть, вопрос в другом, учитываются ли эти ссылки или просто не отображаюся? Может просто у Я стала на столько большая база, что в целях экономии места :) он стал клеить тексты одинаковых ссылок суммируя их вес?
С этим делом много не ясного. Нужны эксперименты, а так это все будет только ИМХО.
Имхо редок тот оптимизатор, которому придет в голову мысль ставить ссылки на своeго конкурента с ключевыми словами. :)
aka352, это не аргумент.
Например, могут учитываться лишь самые сильные из одинаковых ссылок.
В таком случае, если Петя поставит менее сильные ссылки, они просто не учтутся (или учтутся частично).
А если Петины ссылки окажутся сильнее Васиных, не учтутся Васины, но более сильные Петины поднимут Васин сайт еще выше.
Таким образом, действия Пети либо не повлияют на позиции Васиного сайта, либо повлияют в лучшую сторону. А опустить Васин сайт Петя никак не сможет.
Ни знаю как это назвать, склейка или еще как, но посмотри сейчас беки у сайтов ... У многих на первой показывает допустим 530 беков, а на последней за частую и по 30. Как ты это объяснишь?
На то, что показывает Яндекс, я не сильно ориентируюсь, памятуя о его аппаратной структуре. Думаю для них нет необходимости обеспечивать 100% точно отображение бэков.
У многих на первой показывает допустим 530 беков, а на последней за частую и по 30. Как ты это объяснишь?
Ну как вы сами же предположили несколько ниже
вовсе не обязательно, если ссылки не отображаются, то они и не учитываются.
Но насчет экспериментов - согласен, это могло бы расставить все точки над i.
bondarev.pp.ru, склонен был бы согласиться, если бы не два но.
1) "Клиническая" картина, наблюдаемая многими оптимизаторами как раз наталкивает их на мысль, что вес ссылок все же снижается.
2) Одинаковые ссылки вполне могут быть естественными. не учитываьб при этом более слабые - значит искажать реальную картину.
Готов пообщаться на эту темку =))
Ни знаю как это назвать, склейка или еще как, но посмотри сейчас беки у сайтов ... У многих на первой показывает допустим 530 беков, а на последней за частую и по 30. Как ты это объяснишь?
А кто сказал, что Яша все показывает?
Имхо редок тот оптимизатор, которому придет в голову мысль ставить ссылки на своeго конкурента с ключевыми словами.
если будет доказано, то что это реальное оружие, то таких случаев будет полно!
Например, могут учитываться лишь самые сильные из одинаковых ссылок.
какова логика подобного???
Как говорилось ранее, "склейка" в том или ином виде может быть применима только, если ссылка не соответствует параметрам "естественности", а тут логикак может быть вполне проста.
Итак о пресловутом фильтре одинаковых ссылок или как многие любят говорить - "склейке" ссылок. Этого фильтра нет и быть не может в принципе.
Эх, жаль, Анжелика от нас сбежала... Сейчас вы бы дуэтом спели :)
Это означает, что в алгоритме есть огромная "дыра", позволяющая "пессимизировать" внешними факторами любой сайт, что в корне не верно.
Можно, конечно обсуждать размер дыры, но почему ее наличие "в корне неверно"? Такая дыра создает проблемы для сайтовладельцев и оптимизаторов, а целевая аудитория Яндекса - пользователи и рекламодатели.
Например, могут учитываться лишь самые сильные из одинаковых ссылок.
А что значит "сильные"?
Ссылка дает статический ранг, ссылочное ранжирования по ключевику и наконец ТИЦ. Вклад одной ссылки в эти три показателя могут быть очень различными.
1) "Клиническая" картина, наблюдаемая многими оптимизаторами как раз наталкивает их на мысль, что вес ссылок все же снижается.
а вы не думали, что данное снижение может быть вызвано неким качественным коэффициентом сайтов-доноров?