богоносец

богоносец
Рейтинг
777
Регистрация
30.01.2007
Основная причина АГС - это спам во внешних ссылках.

Для матрикснето-образных поделок... скорее всего нет одной основной причины. А комбинации признаков могут состоять не только из фактов, но из их истории — последовательности событий.

Месяцев 5 были две внешних на свои сайты. Всё было нормально и привычно-хорошо.

Только выкинул из HTML-кода JS, перезалил большую часть страниц, получил полный вылет и через несколько дней возврат двух страниц в индекс. Можно предположить, что этого не произошло бы, если бы 2-х внешних не было. Там, правда, бот мог заподозрить ещё...

Orcstation:
Весь этот текст выше это бред яндексоидов. Чем лучше они делают свой алгоритм, тем стабильнее ГС и все больше выкидывается СДЛ.

Это вы ещё копипаст бота Щукина не получили.

Такие настроения очень хорошо подходят для создания контента с <title>яндексоиды — *******</title> я пробовал недавно. Сам яндекс это уже хорошо ранжирует... но только на новом домене.

Современные ПС являюся элементом положительной обратной связи ГСтроя, но у вас не получится дождаться их признания в этом. Когда их выдача (вдруг! неожиданно) засерается упомянутым процессом, то их начинает мучать совесть о том, что же они показывают искателям... и они начинают типа бороться — с последствиями... рассуждая о судьбе .ru

С причинами они бороться не умеют.

Если ихние алгоритмы видят признаки, то выкидывают на всякий случай... меня они не смогут убедить в обратном, опыт чисто кокретный ещё с прошлого года. И так по любому поводу:

Они пока считали, что невинных нет, ответ всем присылается одинаковый:

При разработке данных алгоритмов мы, конечно же, учитывали возможность конкурентов повлиять на позиции того или иного сайта и минимизировали ее.
Если для продвижения в поисковых системах указанного сайта Вами действительно не используются и не использовались какие-либо обманные техники и сайт развивается в интересах пользователя, то со временем его позиции восстановятся.
/ru/forum/comment/9198085

Минимизировали, но не исключили.

+ ихним суперботам не важно, кто применял эти обманные техники. Важнее принять меры по замеченным попыткам обмана.

...:
крестовый поход против еретиков. ))
Сразу вспомнилось "Убивайте всех, Господь распознает своих!" )

ps В условиях Матрикснета бессмысленно говорить: «за одну сцылку», «за переспам», «за семь колосков». Но тупость фильтров не запрещено обходить... чем ГСтрой воспользуется лучше всех.

MALOY:
Скажите, как правильно делать сниппеты?

В пределах одного поста не объяснить. Там много деталей.

Вам в какой ПС? И какого типа ответы вы готовы воспринимать?

По форуму можно поискать /ru/forum/599465

Seo-Woman:
У меня тоже был АГС за 1 ссылку.
...
Яндекс не поймешь.
Илья Сегалович

Я хочу сказать по поводу возможных ошибок. Мы понимаем, что вполне возможна ситуация, когда из-за ошибок или несовершенства алгоритмов качественные сайты могут либо не попасть в поиск, либо занять в его результатах ненадлежащую позицию.

У нас есть такая метрика: «Не выкидывать хорошие сайты».

Что мы делаем: по ряду запросов мы мониторим выдачу других поисковых машин, всех, кто хоть как-то ищет по-русски, включая все версии самого Яндекса - рабочую версию и внутренние, экспериментальные (у Яндекса много версий). И складываем все результаты в один котел. Если какой-то сайт присутствует в этом «котле», если он там имеет достаточно хорошие оценки, и при этом отсутствует в Яндексе, мы начинаем разбираться – почему. Причины могут быть разные. Чаще всего причина банальна – плохо отранжировался. Следующая причина – этот документ есть у нас в базе, но в выдачу не попал: так обычно бывает, если мы не сделали нужное синомическое расширение – человек искал по какому-то слову, а в базе был его синоним, искал «Ленинка», а в базе было «Библиотека Ленина».

И наконец, самая редкая причина – документа нет в нашей поисковой базе. И вот тут мы начинаем смотреть, по какой причине он не попал в нее. Да, кстати, говоря «смотреть», я не имею ввиду «смотреть глазами», это все делают алгоритмы, автоматически. Если документа в базе нет, мы смотрим, известна ли нам ссылка на этот документ. Как правило – известна, нам известно чудовищное количество ссылок, на порядки больше, чем наша база документов. Далее смотрим, а был ли скачен документ по этой ссылке – он ведь мог просто не скачаться по техническим причинам. Далее смотрим, какими метриками этот документ обрабатывался – вдруг он не попал в базу, потому что наши алгоритмы сочли его некачественным? Тут могут сыграть роль ссылки, которые на нем стоят, ссылки, которые на него ведут, дублированность контента, признаки сгенерированности текста, его неестественность – у нас много критериев. Мы считаем определенную сумму баллов, и когда сумма баллов превышает некий порог, мы сайт выбрасываем из поиска.

Мы очень тщательно отслеживаем долю документов, не попавших в выдачу, и если обнаруживаем качественный документ, который мы незаслуженно запессимизировали, мы вносим соотвествующие изменения в алгоритмы. И могу с уверенностью сказать, что доля таких сайтов у нас очень маленькая. Мы тщательно следим, чтобы она не увеличивалась, мы стремимся к тому, чтобы она уменьшалась.

Этот текст — для людей... которым не объяснить причин невозможности обеспечения идеальной точности работы алгоритмов. Если же перевести это на совсем уж человеческий язык, то: сайты выкидываются из индекса по подозрению или их комбинации, ранжируются аналогично. Признаки могут быть слишком просты... и их не всегда можно будет выразить на человеческом языке.

Если кто хочет поупражняться: напишите алгоритм распознавания дорвея. Схемку накидайте, которую можно в код превратить. С учётом того, что проверять придётся очень много документов, а вычислительных мощностей не очень-то и много. А дорвеи бывают очень разные и появляются новые их виды.

Поэтому для яндексоидов может быть актуальным выбор: повысить точность | увеличить производительность?

AVDEN:
Но, может, есть смысл, если у запроса частотность, нпример 50.

Надо прикидывать адекватность (поставленным целям) используемых средств. Выше было отвечено про необходимость учёта конкурентности — совокупности усилий, затрачиваемых на присутствие в выдаче по ...

А вообще, мне такие темы кажутся воспоминаниями о том, чего уже не будет.

Вот ещё давно сказано:

Google Webspam:
... «это изменение алгоритма Google, которое сделано для выведения сайтов высокого качества в топ по низкочастотным запросам. Оно прошло тщательное тестирование и не будет отменено»... Принимая во внимание комментарий Мэтта на Google I/O, страницы, которые теперь будут ранжироваться хорошо по запросам «длинного хвоста» находятся на сайтах «более высокого качества» (или, возможно, являются страницами «более высокого качества») /ru/news/225

Так вот они сказали оптимизаторам, но ... бессмысленно говорить о ТОПе, говоря об НЧ-траффе. Это надо мерить иначе.

Прошлым летом попытался собрать цитат из воспоминаний в конце поста, но это всё уже тогда было воспоминаниями, теряющими актуальность... с тех пор тем я и не завожу.

Shessmaster:
Это какой-то... позор (с)
Яндекс – это наше Усе. Большая русская надежда.

«Вы думаете как человек» ©

Про ботов так нельзя.

Любой пиарщик Яндекса вам заявит, что: Матрикснет ... улучшил ... на *% ... и у Матрикснета нету ... склонности к «переобучению»... как у других, менее совершенных алгоритмов машинного обучения. — Это если смотреть на массу результатов. Ну отдельные причуды стали странными и бесчеловечными, но типа их же стало меньше в целом, хотя и осталось столько, что всех руками не удалить. Ну нет у них в метриках чего-то типа коэффициента вредности конкретного вида причуд, дабы их как-то взвешивать типа.

Сами с собой они бороться не будут... наверное, глупо тратит внимание на неустранимое или потенциально бесконечное... проекту надо успеть пожить таким... какой он есть.

Стопсловей надо было напихать. И сразу пачку картинок с разными вариантами, включая реальный текст.

Orcstation:
С 200 страничного сайта около 5 тематических ссылок на СДЛ.

У меня бывало за 1 сцылку* с 30 страниц.

________

* в действительности, за некоторый набор неизвестных условий.

Orcstation:
Статьи от 1000 до 3000 символов. Уник 100%. Я серьезно говорю, качество хорошее.

Если о качестве сказать больше нечего, то ...

Orcstation:
Разве это нормально?

Это фактически...

Они не стесняются выкидывать по минимальному автоматическому подозрению и не видят в этом чего-то плохого... для своих ползателей. Сайты для ботов не вылетают, чаще те, что реально для людей. Дело наверное в том, что ихняя фильтровалка настроилась так, что ... признаки того, что надо выкидывать из индекса, оказались и на вашем сайте. (всякий хлам часто прикидывается СДЛями, поэтому фильтровалка загребает и пушистых тоже)

Придётся просмотреть все страницы на предмет признаков нарушений, формально, как тупой бот. Счистить всё... и «5 тематических ссылок» тоже. Если за месяц в индекс не вернётся, а какие-то сцылки уже накопились и они ценны, попробуйте сделать зеркало (внимательно прочитав хелп). Как ни странно, на старом домене фильтр может сохраняться, а на новом может не быть условий его наложения, но это не правило, а случай. Если сцылок нет, удалите всё и сделаете новый сайт позже, пока контент не растащило.

AVDEN:
как правильно формировать анкоры в перелинковке под такие редкие словосочетания?

Это ******!

AVDEN:
Линкую внутренние страницы по списку запросов.

На что гражданин начальник автоматически даёт стандартный ответ.

AVDEN:
ну, а если несколько тысяч запросов?

У этого форума их более 100.000/мес. БОльшая часть — с частотой ~1/мес*.

__________

* Когда говорим о таких значениях, следует помнить о большой неопределённости (1±1), т.е. почти неповторимые запросы. Вы ими хотите линковать?

AVDEN:
Как в этом случае достигнуть "органичности" и естественности анкоров?

Ну да ладно, хрен бы с ними, с совками из яндыкса...

... вот гуглоиды поступают заметно мякше: запихивают давнюю перелинковку вместо тайтлов или вместе с ними, или одни анкоры вместе с другими, вот и радуйтесь былым стараниям. Почему уже не первый год этого никто не замечает? На эти грабли надо наступать самому.

Всего: 13677