- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Точных цифр не знаю. Наверное немного не так я выразился. Объясню на примере: есть 6 сайтов. У 3-х ноль бэков, у 3-х около 1000. Начали обмен, у 3-х нулевых стало бэков 300, у 3-х жирных - 1300. Далее каждый ап у 3-х нулевых прибавляется 50 - 100 бэков, а у жирных остановилось на 1300.
Обмен производится со всеми сайтами абсолютно одинкаково (идентичные вид ссылок, кол-во вариантов ссылок около 300).
Был случай, когда взялся за уже продвинутый кем-то проект, тексты ссылок были в основном одинаковы, сделал уникальными - позиции подросли. Больше никакой работы не производилось, тематика достаточно конкурентная.
Из первого абзаца я только понял, что не было роста беков у сайтов с количеством беков 1300. Это вам Яндекс показывал кол-во, а вы проверяли, новые появились беки или нет?
По второму абзацу, сделали текст ссылок уникальными. Как? Вот здесь хотелось бы поподробнее....
Если например поднимать сайт - допустим по ключевому выражению "продвижение сайта" - очень конкурентная тема.
Текст ссылок должен быть уникальным, что тогда мне делать?
- менять падежи, число, род
- сочетание с другими словами, (оптимизация сайта, веб сайт и т.д)
- т.д
Проводил эксперименты над одним сайтом на среднечастотниках.
Ставил ссылки вида "назв1 назв2"
20 ссылок и я в топ 10 (6)
Было еще ключевое выражение вида "назв3 назв2"
как находился далеко 200 позиция так там и оставался.
Как только поставил несколько 10-ков ссылок через 2 месяца с точным вхождением ключевика вида "назв3 назв2" сразу после апа поднялся в топ 10. А первый ключевик так и остался на 6 позиции. Так что про смену уникальности ссылок и повышение позиций от этого у меня не потвердилось.
Весьма трудозатратный эксперимент получается. :(
Можно сделать проще.
Сделать один сайт и понаблюдать позиции 2-3 недели. Когда она займет свое место, поставить на него 1 ссылку, потом еще одну, потом еще одну - все с разным текстом.
Так поднять позиции раза в 2. Когда устаканится, начать ставить ссылки с одним текстом и посмотреть что будет :)
Долго, но за то интересно ;)
Из первого абзаца я только понял, что не было роста беков у сайтов с количеством беков 1300. Это вам Яндекс показывал кол-во, а вы проверяли, новые появились беки или нет?
Физически ссылки появляются на сайтах и индексируются, но в кол-ве бэков не появляются.
По второму абзацу, сделали текст ссылок уникальными. Как? Вот здесь хотелось бы поподробнее....
Если например поднимать сайт - допустим по ключевому выражению "продвижение сайта" - очень конкурентная тема.
Текст ссылок должен быть уникальным, что тогда мне делать?
- менять падежи, число, род
- сочетание с другими словами, (оптимизация сайта, веб сайт и т.д)
- т.д
Оптимальный вариант - добавлять другие слова в текст ссылки, т.е. в Вашем случае "продвижение сайта комплексно" например. имхо.
Проводил эксперименты над одним сайтом на среднечастотниках.
Ставил ссылки вида "назв1 назв2"
20 ссылок и я в топ 10 (6)
Было еще ключевое выражение вида "назв3 назв2"
как находился далеко 200 позиция так там и оставался.
Как только поставил несколько 10-ков ссылок через 2 месяца с точным вхождением ключевика вида "назв3 назв2" сразу после апа поднялся в топ 10. А первый ключевик так и остался на 6 позиции. Так что про смену уникальности ссылок и повышение позиций от этого у меня не потвердилось.
И в топе по высокочастотникам попадаются сайты с одинаковым текстом ссылок, я не говорю, что это плохо. Я говорю уникальные - лучше. В Вашем случае возможно вам понадобилось бы меньшее кол-во ссылок для вывода в топ по среднечастотнику, если бы ссылки были уникальными. имхо.
И в топе по высокочастотникам попадаются сайты с одинаковым текстом ссылок, я не говорю, что это плохо. Я говорю уникальные - лучше. В Вашем случае возможно вам понадобилось бы меньшее кол-во ссылок для вывода в топ по среднечастотнику, если бы ссылки были уникальными. имхо.
вот именно, что не заметил влияния от уникальности ссылки. Сайт раскручивал несколько месяцев и смотрел на результаты.
Кто наблюдал понижение позиций от ссылок с одинаковым текстом, поделитесь, пожалуйста: позиции сайта понижались по точной форме запроса, или также по словам входящим в запрос?
Т.е. например, я ставлю много ссылок "Мама мыла раму".
1. Фильтр накладывается только на всю фразу, или еще и на "Мама мыла"?
2. Если я буду ставить много ссылок, содержащих "Мама мыла", но третьим словом будет что-то другое, например "Мама мыла гвоздь", "Мама мыла мылом", то появляется фильтр на фразу "Мама мыла"?
И захотелось мне помечтать :)))
Для каждой странички есть набор предложений: текстов ссылок на эту страницу.
Для каждого уникального текста ссылки есть число повторов.
Для этого набора текстов ссылок можно подсчитать тошноту (нормировку), которая зависит от заспамленности этого набора разными ключевиками.
Для этих ссылок вычисляется передаваемый ВЕС
вес*число_найденных_пассажей_в_ссылках/тошноту_ссылочную~=ссылочный_вклад_в_ранжирование
А чем черт не шутит? :D
Всем доброго времени суток.
Тема... мягко говоря... изрядно... И никакого практически полезного ответа нет, и скорее всего, не будет.
По логике вещей, во избежание накрутки фильтр должен быть, но не "сильный". В то же время, наличие "однозначного" фильтра резко ухудшит выдачу в принципе. И позволит манипулировать ею еще хуже, чем для "доброго" продвижения - понижать любые сайты. Об этом много раз говорилось - и это самый сильный аргумент в пользу отсутствия такого явления.
Это если говорить о работе фильтра при расчете ссылочного ранжирования.
При поисковой выдаче фильтр есть, и он "сильный".
У многих на первой показывает допустим 530 беков, а на последней за частую и по 30. Как ты это объяснишь?
Пользуйтесь поиском! Вот первоисточник, самый, что ни на есть вызывающий доверие.
/ru/forum/comment/873204
При этом указывается, что дубликаты отсеиваются и при индексации... Но это же речь о дубликатах страниц, а не отдельных ссылок, верно?
Т.е. например, я ставлю много ссылок "Мама мыла раму".
1. Фильтр накладывается только на всю фразу, или еще и на "Мама мыла"?
2. Если я буду ставить много ссылок, содержащих "Мама мыла", но третьим словом будет что-то другое, например "Мама мыла гвоздь", "Мама мыла мылом", то появляется фильтр на фразу "Мама мыла"?
Из собственной практики. Если и есть, то первое, и достаточно "слабое" на диапазонах из числа ссылающихся сайтов, достаточных на сегодняшний день для продвижения большинства тематик. Второго, с очень большой вероятностью - нет.
Любые эксперименты, поставленные не в рафинированных условиях, ни к чему не приведут - слишком много искажающих факторов, от действия конкурентов до сбоев самой ПС... Вряд ли стОит этим заниматься.
Поэтому мое мнение - не морочить более этим голову, а продвигать сайты по возможности разными ссылками (так вроде вернее ;) ), а если нет возможности - не бояться.
Спасибо за внимание.
С уважением - Алексей.
хм... у меня возникла идея с экспериментом...
создал 2 сайта на народе с разными однострочными контентами, проставил на них ссылку с абракадаброй с морды.
через пару апдейтов посмотрю, какой из них выше в выдаче, и проставлю на него аналогичную ссылку с помойки. а там видно будет - поменяются местами или нет.
хотя можно даже создать третий сайт, а ссылку с помойки поставить на тот, что будет посередке. посмотреть, в какую сторону двинется.
а потом усложню эксперимент добавлением абракадабры в контент одного из сайтов.
эксперимент хорош своей простотой и дешевизной ;)
кому интересно, и кто может поделиться идеями, мордами и помойками ;) прошу в личку или в аську...
А я перестал верить в наличие в алгоритмах пороговых значений после того, как обнаружил, что сайты с первыми критериями поискового спама (напичкивание ключевыми фразами страниц) не пропадают из поиска и даже неплохо ищутся по ним.. Не знаю, можно светить чужой урл, но для факта разик можно http://andersenhotel.ru/
С ссылками, предполагаю, еще менее явно..
а потом усложню эксперимент добавлением абракадабры в контент одного из сайтов.
эксперимент хорош своей простотой и дешевизной
Одна проблема - практической пользы от него будет почти нуль, т.к. одна ссылка с PR=6-7 в бэках конкурентов пересилит 100 каталожных, выверенных в строгом соответствии с экспериментом...
Слишком легко обойти фильтр дублей ссылок, чтобы его всерьез разрабатывать и применять. Методы защиты от накрутки могут быть проще в реализации и эффективнее (но не бесспорнее, впрочем) - например, TrustRank или подобные алгоритмы с построением "доверенной" базы сайтов на основе модерируемого каталога, причем с постоянным совершенствованием качества модерации.
Максимум, что может быть - фильтрация абсолютных дублей после некоторого очень большого количества (или очень большой прирост их за единицу времени), т.е. защита от совсем уж явного и глупого спама, но никак не отдельных словоформ... И влияние этого фильтра, даже если он накладывается перед расчетом ссылочного ранжирования - малое, малое, малое...
С уважением - Алексей.