- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приведенное ниже, часть более общей статьи. Но рассмотреть хочу именно этот, по моему мнению, наиболее важный момент. Полная версия тут
Знаю, что наши гуру все больше переходят в режим read-only, но все же надеюсь на их комментарии.
Итак, признаки ссылочного спама (спама - в терминологии поисковиков).
Принадлежность сайту. Алгоритм, идентифицирующий спамерские сайты уже не новинка. Это общеизвестный TrustRank. И я считаю, что у Яндекса есть свой аналог. Но метод сам по себе достаточно топорен, т.к. автоматически понижает вес всех ссылок, что в принципе неверно. Поэтому его можно применять лишь в совокупности.
Число ссылок. Сайты, размещающие ссылки, стремятся продать их как можно больше. Но использовать простое число внешних ссылок для идентификации спамерского сайта недостаточно. Сайты, имеющие очень большой собственный вес могут размещать несколько десятков ссылок и все они будут достаточно эффективны. Поэтому разумнее использовать нелинейный коэффициент, значительно снижающий вес, передаваемый каждой ссылке в случае их большого числа. В этом случае ссылки быстрее будут попадать под порог "учитываемости", т.е. под "непот".
Расположение. Известно, что вебмастера, продающие места на "мордах" своих сайтов, размещают ссылки в отдельных блоках, вынося их в боковые колонки или низ сайта, т.е. не в контенте. Такое местоположение может с высокой степенью вероятности указывать на принадлежность ссылочного блока к спаму.
Окружение. Возвращаясь к блочному принципу размещения продажных ссылок следует отметить, что это легко идентифицируется по повышенной плотности внешних ссылок на небольшом участке кода. И несмотря на то, что многие оптимизаторы стремятся добавлять к своим ссылкам текст, принципиально это картину не меняет.
Тематичность. По поводу автоматического определения тематичности сайтов уже сломано много копий. Лично я придерживаюсь мнения, что такие методы есть и активно используются. Соответственно ссылка между двумя сайтами может иметь низкий вес, если тематики принципиально не совпадают. В случае блочного размещения нетематических ссылок, все они могут идентифицироваться как спамерские.
Код ссылки. Данный метод основывается на том факте, что многие автоматизированные системы установки ссылок (биржи, обменники и т.п.) устанавливают код автоматически по шаблону. Наличие блока идентичных по коду ссылок может указывать на их спамное происхождение. Но этот метод имеет и обратную сторону, т.к. автоматически ссылки устанавливаются например через функционал CMS-систем. Поэтому применимость его ограничена и может использоваться лишь в совокупности с другими.
Текст ссылки. Весьма неоднозначный признак. К анализу можно подходить с двух сторон. Во-первых, текст ссылки как самостоятельная конструкция. Составляя текст ссылки, многие оптимизаторы редко задумываются о его читаемости и близости к естественному языку. Главный критерий - уникальность, большее число ключевых слов и Директ-ориентированность. Результатом становятся конструкции вроде "продать купить автомобиль машина Москва" вместо "продать автомобиль в Москве". Реальность использования такого подхода в анализе конечно спорна по очевидным причинам, но не невозможна. Другой подход к анализу текста ссылки базируется на соответствии ее тексту страницы на которую она ведет. Некоторое время назад, из-за возникшей истерии со "склейкой" ссылок, многие вебмастера начали стремиться разбавлять тексты и в этом стремлении доходили порой до абсурда, добавляя рандом-генерированные слова. Несоответствие текста ссылки странице может также являться признаком спамности, хотя и весьма спорным.
Время жизни. Достаточно часто приходится слышать от оптимизаторов идею о том, что новые ссылки могут иметь небольшой вес, а затем постепенно его увеличивать. Предположение выглядит логичным, но исключительно с позиции оптимизатора, который ставит спамные ссылки. Если же мы возьмем естественную ссылку, то автор ее устанавливал в момент наибольшей актуальности и интереса к сайту на который она ведет. Со временем эта актуальность может лишь уменьшаться вплоть до того, что автор просто забудет об этой ссылке и ее актуальность будет для него почти нулевая. Использование данного параметра подразумевает вариацию скорости убывания веса ссылки и его нижнее значение в зависимости от сайта, где она установлена. Например ссылка на новостном сайте быстрее теряет свою актуальность, чем на тематическом ресурсе.
Отмечу, что все вышеуказанные признаки должны применяться в совокупности, т.к. можно найти множество исключительных случаев, когда один или два признака не могут быть применимы. Соответственно каждый из этих признаков может иметь пополняемый перечень исключений.
aka352, несмотря на то, что материал получился довольно интересный, задам подлый вопрос - а вывод какой? ;)
aka352, за собрание всех мифов в одном месте - респект.
Но поставьте хотя бы imho перед подачей материала.
Со всем вышенаписанным согласен - думаю так и есть. Самая большая проблемма заставить продавцов ссылок вытащить блоки из подвалов и раскидать по странице :( Остальное мы сами как оптимизаторы можем как то контролировать.
Yaroslav_Adv, попытка собрать и обобщить :) Выводов тут быть не может.
MiRaj, по моему, любой человек высказывается "imho". За всех и вся говорить никто не может ;-) Я не исключение.
aka352, несмотря на то, что материал получился довольно интересный, задам подлый вопрос - а вывод какой? ;)
Учитывайте эти факторы при продаже и покупке ссылок и не поподайте под них ☝
Т.е. ставьте ссылки не блоком, а в разные места страницы, не переусердствуйте с количеством ссылок и т.п.
С уважением, Алексей.
... попытка собрать и обобщить Выводов тут быть не может
прямой вывод который напрашивается :)
1) статьи со страниц уже существующих
2) естественность сылок
3) копирайтер в штате сотрудников
И я считаю, что у Яндекса есть свой аналог.
И какие же есть доказательства?
Сайты, размещающие ссылки, стремятся продать их как можно больше
Неправда, так как больше 20 с морды не купят.
Такое местоположение может с высокой степенью вероятности указывать на принадлежность ссылочного блока к спаму.
Ерунда. Просто ерунда.
повышенной плотности внешних ссылок на небольшом участке кода
Если я даю ссылки на СВОИ же сайты, я их тоже даю блоком... и не буду морочиться распределением их по странице.
Лично я придерживаюсь мнения, что такие методы есть
Доказательства?
В случае блочного размещения нетематических ссылок, все они могут идентифицироваться как спамерские.
Ересь. У меня может быть один сайт по окнам и три сайта про проблемы развития самурайских традиций в средневековой японии. И я имею полное право размещать ссылки на эти сайты на любых моих сайтах. Причем же тут спам???
устанавливают код автоматически по шаблону
А хреф - это шаблон и канон:)
Главный критерий - уникальность
Неправда. Если у меня сайт посвященный Юкио Мисиме (а такой есть реально:)), то и естественные ссылки будут простые - "Сайт Юкио Мисисмы" или "Юкио Мисима". И никаких вариантовю
Достаточно часто приходится слышать от оптимизаторов идею о том, что новые ссылки могут иметь небольшой вес, а затем постепенно его увеличивать.
На самом деле все наоборот.
В целом согласен с aka352, думаю, все очень близко к истине.
Алгоритм, идентифицирующий спамерские сайты уже не новинка. Это общеизвестный TrustRank.
Я бы скорее подошел к этому с другой стороны: ТрастРанк используется для повышения значимости ссылок с некоторых сайтов. А вот определение спамерских сайтов и понижение их веса - это скорее просто набор фильтров, а не Траст. Имхо, имхо, имхо...
Неправда, так как больше 20 с морды не купят.
С морды не купят, а вот с внутренних страниц в общем и целом можно продать очень много. Что сейчас и делают. Так что идентификация "продажных" сайтов упрощается.
Если я даю ссылки на СВОИ же сайты, я их тоже даю блоком... и не буду морочиться распределением их по странице.
А какая разница поисковику, ставите Вы ссылки на своих сайтах или покупаете?
У меня может быть один сайт по окнам и три сайта про проблемы развития самурайских традиций в средневековой японии.
"Самурайские традиции" имеют какое-то отношение к окнам? Опять же с точки зрения поисковика, ему все равно на чужих Вы сайтах размещаете или на своих.
На самом деле все наоборот.
А вот здесь готов согласиться :)
С морды не купят, а вот с внутренних страниц в общем и целом можно продать очень много. Что сейчас и делают. Так что идентификация "продажных" сайтов упрощается.
Неправда, на внутренних еще более строгое ограничение по внешним ссылкам.
А какая разница поисковику, ставите Вы ссылки на своих сайтах или покупаете?
А в том-то и дело, что наказывать за свои ссылки нелогично
"Самурайские традиции" имеют какое-то отношение к окнам? Опять же с точки зрения поисковика, ему все равно на чужих Вы сайтах размещаете или на своих.
Пожалуйста, ссылки не первоисточник. По умлочанию я считаю, что сайты мои и ставлю я то, что хочу и не нарушаю ни один пункт лицензии.
На мой взгляд правы и The WishMaster и aka352, просто по разному. Один говорит о том что ссылочный спам стал проблемой для текущих алгоритмов поисковых систем, а другой о том что распознать этот спам это реальная проблема для любых алгоритмов. Изменение алгоритмов в принципе не за горами (новые наработки Гугла, "a-la Trust Rank", и т.д.) но на текущий момент ссылочное рулит как правило. Распознавание же ссылочного спама по каким бы то нибыло критериям представляется задачей малореальной. Если идти методами предложенными ТС, то поисковики должны просто грохнуть половину своей индексной базы на что они естественно не пойдут.
Увеличение разнообразия анкорных текстов на самом деле во многом надумано самими оптимизаторами, The WishMaster тут прав - реальные ссылки в ручную проставляемые вебмастерами на сайт как раз вряд ли будут отличаться большим разнообразием если сайт сам по себе не новостной, например, а строго тематический. Так что скорее поисковикам легче отфильтровать спамовые линки именно по их разнообразию, но это тоже не совсем верный путь. Развитие поисковиков так или иначе упирается в примитивные вычислительные возможности что и накладывает определенные ограничения на существование всяких фильтров и т.д. Т.е. если говорить с точки зрения вебмастера с 5 сайтами - то вроде как поисковый фильтр придумать можно, но если говорить с точки зрения например Гугла, то речь идет о миллиардах страниц, а это уже совсем другая проблема...
ИМХО - общий вывод - не будем бредить ерундой, если начнуться проблемы с выдачей - тогда и стоит начать пересматривать методы, а до тех пор любые измышления - это не более чем "ИМХО" как тут уже отмечалось.