- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день.
Имею маленький вопрос. Как Я определяет такие вещи как загон тегов Н в Css, цвет текста = цвету фона и т.д. Это как-то делается роботом или тут человеческий фактор (например стук конкурента).
Заранее спасибо за ответ
WladimirU,
Да по стуку запросто, а многие вещи определяет сам робот.
Вобщем если не робот, то настучат.
Да по стуку запросто, а многие вещи определяет сам робот.
Насчет робота сильно сомневаюсь. Если Вы сделаете "грязный" сайт и не будете его продвигать, то он будет в поиске годами, но стоит ему появиться в топе.., как реакция Яндекса не заставит себя ждать. Отсюда вывод: Павлик Морозов до сих пор жив! ;)
Rev, только его теперь не Павликом, а Платоном зовут.
Сайт будет в поиске ровно до того момента как не начнет "засорять выдачу" (то есть поподание в топ)
Как таковое прописывание заголовков в css это не нарушение :) и если банить все сайты, где параметры тегов h изменены в css, то база Яндекса изрядно опустеет...
Обратимся к первоисточнику:
Все антиспамовые меры на Яндексе работали и работают следующим образом: автоматически определенный "спам" считается спамом "гипотетическим" и, следовательно, автоматом за него никого из индекса не исключают, разве что "мягко понижают".
Но: если мы на 100% уверены в спаме (например: глазами посмотрели и убедились) - мы резервируем за собой право не только исключать данную страницу/сайт, но даже и все страницы данного "автора". (посмотрите точную формулировку в нашем дисклеймере). Мы уже не раз данным правом пользовались и будем пользоваться.
Тот же принцип относится и к непотистскому спаму (линконакрутке). Можете проэкстраполировать его, если хотите.
С уважением,
Илья
Спасибо большое за интерес к работе Яндекса. Вы абсолютно правы, _НЕ_ _ВСЕ_
спамовые приемы из тех, что там применяются, мы отлавливаем и подавляем. Самое главное - механизм подавления спама в яндексе до сих пор не был абсолютным, то есть Яндекс не удаляет страницы за спам напрочь - просто понижает им релевантность. Очевидно, это не всегда срабатывает хорошо.
Мы планируем серьезено этим заняться в ближайшее время
Илья Сегалович,
Яндекс
"Непотизм" сиречь "кумовство".
Принцип спама, четко сформулированный И.А Крыловым: "Кукушка хвалит петуха, за то что хвалит он кукушку".
В спаммерском просторечьи называется "линконакрутка".
Хотя - это не совсем "спам". Это просто "непотизм". Что, если быть точным, все-таки, разные вещи. Лучше их различать.
Это был 2001 год. Спроецируем на наше время.
Исключение сайтов "автора" - давно я про такое не слышал.
Но все знают о существовании санкций, которые могут быть наложены автоматическим и ручным способом.
Некоторые виды спама изучены достаточно хорошо для того, чтобы их отлавливание можно было отследить алгоритмическим способом, не привлекая для анализа человека. Они включены в алгоритм и работают автоматически [корректно они отрабатывают или нет - это уже вопрос к разработчикам. Думаю, что в большинстве случаев - корректно]. Примером может служить так называемый ссылочный спам - быстрое появление огромного количества ссылок на продвигаемый сайт в короткий промежуток времени.
Другие виды спама либо еще не достаточно хорошо изучены, либо еще не достаточно точно реализованы в алгоритме, чтоб отрабатывать машинным образом. Это в терминологии Ильи Сегаловича - "гипотетический" спам. Скорее всего, сайты, на которых машина нашла подозрение на такой спам, складываются в список на проверку их модератором и для улучшения алгоритма отлавливания.
Ну и естественно существует спам, который машинным образом пока не отлавливается вообще. Единственный способ - обнаружение модератором при ручной проверке сайта по спамрепорту. Примером может служить скрытый текст. Его сложно отследить автоматическим образом, но конкуренты находят очень быстро. Клоакинг тоже относится к этой группе. Радикальное решение о полном исключении какого-либо сайта из индекса (бан) принимается при личной проверке сайта модератором, то есть сайты из групп 2 и 3.
Резюмируя, можно сказать следующее: спам продолжает эволюционировать, а поисковые системы в свою очередь разрабатывают способы для его нейтрализации любыми методами - сначала ручным, а при более детальном изучении - уже и машинным. Основные способы получения информации о неблаговидных методах раскрутки по-прежнему - внутренние и внешние: спамрепорты и стук на форумах типа этого.
С уважением,
Сергей Пасечник.
Seventh Son, спасибо за цитаты.
Особенно интересно откровение Сегаловича о непотизме. По сути это определение так всеми любимого взаимного обмена ссылками. ;)
санкций, которые могут быть наложены автоматическим и ручным способом
Сережа, мне вот что непонятно - если есть что-то, что можно отследить автоматически, то зачем за это накладывать санкции - можно также автоматически это не учитывать при ранжировании? Ну например - ссылки с картинок 1х1 или с переносимого пробела.
Почему-то мне кажется, что так и происходит, ибо так дешевле.
И только то, что не поддается алгоритмическому определению, должно "регулироваться" человеком.
Сережа, мне вот что непонятно - если есть что-то, что можно отследить автоматически, то зачем за это накладывать санкции - можно также автоматически это не учитывать при ранжировании? Ну например - ссылки с картинок 1х1 или с перносимого пробела.
Таня, это уже детали реализации.
Полный неучет каких-то параметров, частичный учет, понижающие коэффициенты и любые другие тонкости - компетентно смогут ответить только инсайдеры.
С уважением,
Сергей Пасечник.
это уже детали реализации.
Это очень важные детали. В случае, описанном мною - это просто вся работа насмарку, а если еще и санкции - то, сам понимаешь...
компетентно смогут ответить только инсайдеры.
Я надеялась, что ты отыщешь еще какое-нибудь сообщение Сегаловича. :)