- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
в последнее время я не наблюдал такого, не было примеров.
Может, имеется в виду ссылочный взрыв?
Ну вот. При наличии большой выборки не заметить того, о чем пол форума гудит...
Значит выборка настолько огромна, что можно измерить только среднюю температуру по больнице. ИМХО фильтр за переспам анкор-листа, это наш старый добрый "Ты- спамный". Выход возможен как изменением контента на точках входа, так и (что более надежно) изменением анкор- файла (уменьшив количество точных вхождений ключа).
Варианты его срабатывания:
1. На этапе прюнинга точка входа на сайт отсекается (часто главная), в выдаче в попе мира появляется менее релевантная страница.
2. Просто просаживание позиций (из ТОП10 в ТОП20, а то и в ТОП100), точка входа остается та-же.
ИМХО идет сравнение анкор-листа с неким "идеальным" из матрицы оценок асессоров. Анкор-файл и контент точки входа анализируются матрикснетом в связке. Как-то так.
Да уже давно бы создали 10 разных сайтов, проспамили бы их только прямыми вхождениями с нулевых сайтов и все узнали.
Узнали-бы что? Примеров на форуме хватает. Клиентский только сейчас вытащил из под этого фильтра. Да и не только анкоры там роль играют.
Формула ранжирования строится по косвенным исходным признакам
Вот эту тему обсудить было-бы интереснее. Исходную матрицу выборки, что туда входить может, а что нет.
Да уже давно бы создали 10 разных сайтов, проспамили бы их только прямыми вхождениями с нулевых сайтов и все узнали.
А практически - ссылочный взрыв вполне достоверно идентифицируется и более того, признается саппортом яндекса в стандартном ответе про быстрый прирост сео-ссылок и их неучет. А пресловутый переспам анкор-листа даётся сеошникам лишь в смутных ощущениях. Не удивлюсь, что за него принимают последствия именно ссылочного взрыва и прочих не связанных с анкор-листом вещей.
О каком ссылочном взрыве может идти речь, если изначально топик о другом. 500 ссылок за 3 месяца в виде статей и ссылок с гогета можно назвать ссылочным взрывом? Не в ту степь копаете или пытаетесь народу мозги запудрить....
wolf, мне кажется тут проблема в том, что ставится один вопрос, а ответ даётся на другой. Сегодня Яндекс берёт большое количество параметров, и на их основе строит выдачу, причём выдача может отличаться в зависимости от диапазона значений этих параметров. Т.е. для посещаемых и не посещаемых, для посещаемых блогов и не посещаемых блогов, для посещаемых блогов с большим количеством внешнего ссылочного и посещаемых блогом с маленьким количеством внешнего ссылочного, для посещаемых блогов с большим количеством внешнего ссылочного с текстом и посещаемых блогом с маленьким количеством внешнего ссылочного без текста, ну и т.д.
А на какой вопрос пытаются получить ответ? Есть сайт, любой, давайте возьмём 10 ключей и купим на них много "хороших" ссылок. А теперь найдём факторы почему они не работают. Они же должны работать.
Я вот не математик ни разу, и моделировать выдачу, как G00DMAN не могу, и не собираюсь, если честно. Но я понимаю, что если я буду достаточно правдоподобно имитировать развитие сайта, то большинство нужных факторов у меня автоматом попадут в заданные диапазоны допустимых значений. И на мой взгляд, да, запинайте меня ногами, продвижение по методу "выбери 10 слов ---> купи ссылок ---> получи топ" тихо протухает. Я не сталкивался в последнее время с покупкой большого количества одинаковых анкоров, но не потому, что опасаюсь их покупать, а потому, что не знаю зачем мне это надо.
1. На этапе прюнинга точка входа на сайт отсекается (часто главная), в выдаче в попе мира появляется менее релевантная страница.
Не, на этапе прюнинга такие действия бессмысленно делать.
2. Просто просаживание позиций (из ТОП10 в ТОП20, а то и в ТОП100), точка входа остается та-же.
ИМХО идет сравнение анкор-листа с неким "идеальным" из матрицы оценок асессоров. Анкор-файл и контент точки входа анализируются матрикснетом в связке. Как-то так.
Нет никакого "идеального" анкор-листа и быть не может.
Вот эту тему обсудить было-бы интереснее. Исходную матрицу выборки, что туда входить может, а что нет.
Зачем множество оцененных документов по запросам называть матрицей? Чтобы еще больше запутать оптимизаторов? :)
Собственно, все выводы о наличии спам-фильтра на анкор-лист делаются из более-менее одного и того же эксперимента. Не меняя доноров, меняются тексты анкоров, с изменением % точных вхождений. И, если сайт после этого поднимается в выдаче, то делается вывод о наличии фильтра.
Я бы хотел заметить, что данный эксперимент такого вывода сделать не позволяет. :D
При смене текста анкор-листа изменится множество факторов пары (запрос, документ), скорее всего - тысячи факторов. Соответственно, функция ранжирования насчитает документу совершенно другую релевантность запросу, которая может оказаться и выше предыдущей. А может и не оказаться. И % точных вхождений конечно же теоретически может быть самым важным фактором (если такой фактор вообще существует), но практически этого не определить таким экспериментом. :)
А у Вас не вылетало после АПа несколько СЧ и ВЧ запросов позиций так на 50 - 100 в минус, после того как они почти год сидели в топе? Вот и гадают какой фильтр словили (или не фильтр, а что-то другое)... Кроме «спамно-анкорного» фильтра трудно что-то придумать.
О чем и говорю. Многим трудно придумать иную причину возникновения ветра, нежели чем то, что деревья качаются :)
И на мой взгляд, да, запинайте меня ногами, продвижение по методу "выбери 10 слов ---> купи ссылок ---> получи топ" тихо протухает.
Не убивайте у людей веру в то, что есть таки волшебная пропорция, выводящая в топ. :)
ИМХО идет сравнение анкор-листа с неким "идеальным" из матрицы оценок асессоров. Анкор-файл и контент точки входа анализируются матрикснетом в связке. Как-то так.
Примеров на форуме хватает. Клиентский только сейчас вытащил из под этого фильтра. Да и не только анкоры там роль играют.
Вот эту тему обсудить было-бы интереснее. Исходную матрицу выборки, что туда входить может, а что нет.
И в итоге степень спамности, в первом приближении - определяется временным алгоритмом по количеству вхождений ключа в анкор-лист плюс вхождения в контент выдаваемой поиском страницы?
О каком ссылочном взрыве может идти речь, если изначально топик о другом. 500 ссылок за 3 месяца в виде статей и ссылок с гогета можно назвать ссылочным взрывом?
Всё зависит от скорости их появления и от, так сказать, ссылочной истории пациента.
Всё зависит от скорости их появления и от, так сказать, ссылочной истории пациента.
Ссылки покупались равномерно, каждый день по немногу, т.е. максимально распределенно, тем более за 500 ссылок разом еще никогда не славливал фильтр, может правда нулевой сайтик и может схлопотать. А тут далеко не нулевой, 2006 года, естественная ссылочная масса есть, сайт продвигается с 2007 года, был в топе по ВЧ и вот выпал. Впринципе то, что сайт я верну в топ или он вернется сам я не сомневаюсь, вопрос только во времени, а сейчас с этим очень тяжко.