- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
вот только почему так?
Анонсированный супер-пупер искусственный мозг? :)
Если серьезно, то пока не знаю, есть только поверхностные предположения. Некоторые аспекты мне напоминают алгоритмы яндекса по разнообразию выдачи вообще и в случае некой многозначности запросов в частности. Такой ГС (с расширением запроса в нужном направлении) автоматически сгенерить несложно, в отличие от создания нормального сайта. Но яндекс за счет сильного учета поведенческих факторов и асессорской модели всё таки такие сайты не пускает в топ, а гугл слишком прямолинеен - связь с асессорской моделью похоже слабая (ну, не могут такие ГСы асессорам понравиться, если конечно читать сам текст, а не только заголовки - с заголовками там всё ок). В моем случае гугл стал разбавлять ТОП сайтами с дополнительной справочной информацией по запросу. Но эта дополнительная информация на 100% является объектом авторских прав. ГСы её просто автоматом копипастят, а я например не могу разместить эту инфу - за этой справочной инфой стоят крупные компании и риск наезда очень высок.
спасибо, очень интересно было почитать
В общем по половине ВК запросов мой сайт улетел в сопли, другие крупняки тоже по некоторым просмотренным мной ВК запросам в соплях оказались. Но с качеством такой сопливой страницы вряд ли это связано, ибо на нее ведут сотни и даже тысячи абсолютно естественных ссылок. Также если в некоторых таких запросах убрать префиксное малозначимое слово (что многие пользователи и делают), то страница тут же оказывается в ТОП1. И это по высококонкурентному запросу. Если бы проблема была в низком качестве таких страниц, то что они в топ1 делают по другим очень схожим ВК запросам? Да и репутация самих сайтов (моего и основных конкурентов) в глазах гугла явно сильна, т.к. по некоторым запросам хоть основная страница сидит в соплях, но при этом бывает второстепенная страница в ТОП5 её замещает. И такое поведение наблюдаю не только у себя, но и у крупных конкурентов по некоторым запросам. Кстати, гуглобот обходит сопливые страницы два-три-четыре раза в день. А в яндексе они в ТОП3 плотно сидят.
Мда, смотрю, Гугл, потеснив крупняк, подтянул в топ автоматически сгенерированные ГСы. По стилистике тексты там грамотные, но бессмысленные - например, к копипастной статейке рандомом приложены отрывки комментариев с разных концов интернета (без смысловой связи с конкретной статьей), и таким образом сгенерированно несколько десятков тысяч страниц. И это сейчас сидит в топе.
А ГС старые и со ссылочным или новые сайты?
А ГС старые и со ссылочным или новые сайты?
И много новых есть и старые есть. Старые в том смысле, что некий контент у них давно висел, а потом они расширили его копипастом. У меня не просто сайт, а сервис. Так вот его многие тупо склонировали - и элементы дизайна, и структуру и даже урлы. Даже формы сервиса скопировали, правда они бутафорские у них, не рабочие - сам сервис повторить у них не получилось. Весь контент автоматически заимствован у крупняка, плюс разбавлен чужим авторским контентом (из книг, продающихся в книжном магазине), плюс разбавлен фейковыми (надерганными с разных мест) комментариями (по теме сайта, но не по теме конкретных страниц, т.е. рандомом). Нормальные сайты, очевидно, не могут идти таким путем, ибо не хорошо это, не солидно для серьезного проекта, да и риски большие. Ссылочная масса у этих ГС есть, но небольшая. И всю эту помойку Гугл зачем то тянет в топ. Даже настоящий работающий сервис и его бутафорскую копию не может различить. В этом плане Яндекс более адекватен.
---------- Добавлено 24.06.2016 в 11:37 ----------
Я в начале года сделал редизайн сайта - шаблон сделал адаптивным, перевел на HTM5, добился полного отсутствия ошибок по html-валидатору, т.е. добился практически идеала. Какое то время думал, что с этим может быть связано.
Но сейчас вот смотрю один ВК запрос. В выдаче нет не только меня, но и нет одного моего крупнейшего конкурента: если я в гугле отключаю фильтр, то мы оба появляемся по этому запросу. А этот сайт представляет крупнейшую компанию, известную каждому, ТИЦ измеряется десятками тысяч и... тоже в соплях сидит. Это говорит о примитивности алгоритмов Гугла, ПФ (в отличие от Яндекса) или не учитываются вовсе или учитываются очень слабо, работа асессоров также не видна.
Ссылочная масса у этих ГС есть, но небольшая. И всю эту помойку Гугл зачем то тянет в топ.
Сайты, на запрос отвечают?
Яшин копеечный индекс, не в счет. Под гугл больше клепают доров и т.д.
Если что, я не адвокат гугла.
нет никакого падения трафика ни у кого. есть не правильное анализирование.
Для сайтов у которых низзя совершить конверсию, у гугла есть спец формочка жалобы. Только ее не все дают.
Сайты, на запрос отвечают?
С точки зрения машинного алгоритма по формальным признакам - отвечают и даже более расширенно. Но с точки зрения человека - это шлак с сомнительной по достоверности информацией, неработающими бутафорскими формами, фейковыми комментариями или ворованным авторским контентом в комментариях. Зачем тянуть в топ бутафорию, если можно показать оригинал с полноценно работающими сервисами?
Яшин копеечный индекс, не в счет.
Это, кстати, важный момент. Гугл оперирует с на порядки большим массивом информации в мировом масштабе и ему возможно не подходят алгоритмы типа матрикснета. Я когда стал работать с алгоритмами ИИ столкнулся с главной проблемой - это большая требовательность к вычислительным ресурсам многих вкусных алгоритмов. В итоге волей-неволей пришлось останавлиться на простых решениях. Уверен, у поисковиков это проблема номер 1. А объемы обрабатываемых данных у гугла и яндекса очевидно несоизмеримы.
С точки зрения машинного алгоритма по формальным признакам - отвечают и даже более расширенно.
Это главный ответ на все, что Вы писали до этого. И про ресурсы и т.д.
Гугл да и другие псы не оценивают както особенно. Им сайт показывать пользователю, а если пользователь не оценит, не найдет нужного, то и пользоваться поиском не будет.
Им сайт показывать пользователю, а если пользователь не оценит, не найдет нужного, то и пользоваться поиском не будет.
Ну так этот шлак практически не несет пользы для людей, но не в этом дело, пусть бы и сидели в топе, но зачем реально полезные крупные сайты выкидывать в сопли? Ведь к примеру вместо пяти авторитетных крупняков с рабочими полезными сервисами сейчас в выдаче наблюдаются пара оставшихся крупняков и куча низкокачественных однотипных близнецов-клонов. Качество выдачи при этом значительно ниже с точки зрения человека.
Ну так этот шлак практически не несет пользы для людей
Выше Вы написали, что ответ дают. Я Вас не понимаю :)
зачем реально полезные крупные сайты выкидывать в сопли
в какие сопли? Ссылки покупные наверно есть. Сайт уже давно не обновлялся. Нет приличной мобильной версии. Список можно продолжить.