- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
но что-то мешает мне поверить в склейку.
Доказательства этого наверное вряд ли кто-то предоставит, а вот на собственной шкуре наверное приходилось испытывать (интуитивно :) ). А вообще, склейка ссылок с одинаковым текстом в <a>...</a> не такой уж трудоемкий процесс... Хотя, слово склейка наверное больше к дублям относится, а тут скорее "понижение веса".
А вообще, склейка ссылок с одинаковым текстом в <a>...</a> не такой уж трудоемкий процесс... Хотя, слово склейка наверное больше к дублям относится, а тут скорее "понижение веса".
Единственое осталось мпросить, зачем это необходимо?
Единственое осталось мпросить, зачем это необходимо
Ну как бы считается, что это борьба с договорными ссылками. Если WEB-мастер ставит ссылки сам, то вероятность того, что у всех они будут одинаковыми - мала, особенно, если они многословные.
Доказательства этого наверное вряд ли кто-то предоставит, а вот на собственной шкуре наверное приходилось испытывать (интуитивно )
В том и беда, что у интуитивных ощущений может быть много причин. Достоверно выловить там "склейку" не получается.
не такой уж трудоемкий процесс.
А вот тут ошибаетесь - допустим Яндекс разрешает ставить 100 оиднаковых. Что будет при добавлении 101-й? Одна не будет учитываться? Какая? А что будет если из 101 ссылки одна отсохнет - вернется склеенная?
Вопросов явно больше, чем может показаться с первого взгляда.
Еще раз протестую против термина "склейка" ссылок! Термин "фильтр" считаю правильным. Давайте включим логику...
На некий сайт ведут ссылки. Можно условно классифицировать их как "естественные" и "неестественные". Первую группу составляют ссылки, установленные в добровольном порядке и которые должны учитываться при рассчете авторитетности и ссылочного ранжирования.
Вторая группа - ссылки с немодерируемых ресурсов (каталоги, гостевые, форумы и т.д.), обменные ссылки (ручной и автоматически обмен), покупные ссылки. Задача Яндекса - отделить эти группы друг от друга и учитывать только первую. Согласитесь, задача явно нетривиальная. Можно пойти двумя путями - определить признаки первой группы ссылок и учитывать только те, которые под эти признаки попадают. Можно назвать десятки причин по которым этот способ работать не может. Поэтому остается выявлять отличительные признаки второй группы ссылок и фильтровать их. Как уже указывал выше, эта группа содержит в себе подгруппы, которые имеют между собой весьма существенные различия. Соответственно различные фильтры должны быть ориентированы на выявление различных ссылок. В качестве параметров может выступать все что угодно:
- тексты ссылок
- соответствие текстов ссылок контенту
- число однотипных ссылок
- скорость прироста ссылок
- процентные соотношения групп ссылок(а их можно классифицировать)
и т.д. Могу указать еще до десятка возможных параметров, но по определенным соображениям не буду этого делать.
И еще еще один немаловажный момент, на котором собственно и хотел бы заострить внимание сторонников "склеивания". Никакой автоматизированный анализ не определит на 100% - естественная ссылка или нет. И это вполне понятно. Поэтому Яндекс НЕ МОЖЕТ какую-то ссылку учитывать, а какую-то нет. Самый правильный критерий, который может быть использован - это показатель ДОВЕРИЯ к ссылке. Т.е. по ряду признаков каждая ссылка оценивается - в какой степени можно ей доверять: от 0 до 100%. Соответственно реальный вес ссылки умножается на коэффициент доверия.
И запомните, задача оценки ссылок - нетривиальная и нелинейная! Для оценки можно использовать десятки параметров. Поэтому не надо думать, что Яндекс решил ее "тюбиком клея".
Angelika, смотря от куда ставить ссылки... тут есть несколько подводных камней и НО.
Еще раз протестую против термина "склейка" ссылок!
Протестовать-то можно, только термин уже прижился.
<offtop>К вопросу о терминах. Например, кошелек называют "лопатником". А почему? В Москве до революции у половых в кабаках были медные жетоны, т.н. "лопаты" (они были похожи на лопаты), которые имели номинал такой же, как и деньги - 10 коп, 1 руб и т.д. Получив заказ, половой вносил в кассу "лопаты" на сумму заказа, и получал в обмен блюда. Рассчитавшись с клиентом, половой вносил бабло в кассу, и получал свои "лопаты" обратно. "Лопаты" служили в виде залога, пока половой не принесет деньги от клиента. А носили из половые в специальном кожаном футляре. Отсюда и стали называть бумажники и кошельки - "лопатниками". Конечно, этот термин некорректный - ну какие "лопаты" в наших бумажниках сейчас? Но термину уже пара столетий и будет он еще жить и жить.</offtop>
резкое в течение недели увеличение количества обменных одинковых внешних ссылок (более 200 за неделю)
последствия - выпадение по запросам, содержащим ключевые слова в эти ссылках на за 100-е места.
Ну я лично так не думаю. Каждый сайт не на сотые места вылетает, а как повезет. У меня сайт был по всем запросом 2-4 места. Мне было мало, за неделю нарастил ссылок много, результат - понижение до 8-10 места. Вот жду уже пол года, ссылками не меняюсь - сайт по-прежнему на 8-10 и двигаться никуда не хочет. Через 2-3 апдейта ничего не прошло...
Не много спорный момент, наблюдал аналогичную ситуацию, когда разместил объявление на досках объяв на молодой сайт, то он тут же свалился на 4-10 позиций.
Но когда я заказал регистрацию сайта в каталогах и в течении недели было проиндексировано около 250 ссылок, сайт никуда не провалился, даж поднялся.
Правда, чтобы быть честным, на этот сайт стояло около 30 морд с PR от 3 до 6.
Т.е. получается наподобие гугловской песочницы: если сайт не имеет достаточного авторитета и на него резко появляются большое количество ссылок, накладывается фильтр. Если сайт авторитетен, то нет.
Это конечно же не есть истина, т.к. рассмотрен всего один сайт.
Всё конечно ИМХО...
Только что на моих глазах обсолютно новый сайт по запросам "ремонт" и "ремонт квартир" поднялся в топ 10. + сам 2 новых сайта поднял совсем недавно в топ5, где конкуренция средняя. В общем в яндексе нет песочницы.
Ну как бы считается, что это борьба с договорными ссылками. Если WEB-мастер ставит ссылки сам, то вероятность того, что у всех они будут одинаковыми - мала, особенно, если они многословные.
Вы не правы, всё наоборот. Зачастую вебмастер ставит одинаковые сслки. А разными, могут быть с различных русурсов, типа форумов, гостевух, блогов, когда пользователи производят цитирование, то никак одинаковые ссылки не проставятся.
Что есть "договорные ссылки"?
Вы не правы, всё наоборот. Зачастую вебмастер ставит одинаковые сслки.
Наверное, я плохо объяснила - имеются в виду, конечно же, много разных WEB-мастеров и много различных ресурсов.
Что есть "договорные ссылки"?
Это поставленные по обмену, проданные или по дружбе.
Не те, которые нужны пользователям.