Тут не так все просто. Способов много и все неоднозначны.
Кроме того это инструмент для манипуляцией выдачей в выгодную для себя сторону.
И модераторскую оценку чему? Группе сайтов совпадающих с тем или иным шаблоном? Каждому сайту? Если такое есть, то оно до моих тематик не дошло (потому как каша полная), пока видать только в коммерции.
Представим. Сидит ассесор. Ему пару запрос-сайт. Он дает оценку. С сайта бот снимает сотню характеристик. Теперь все сайты с параметрами близкими к проверенному ассесором получают близкую оценку и ранжируются близко друг к другу.
Сайты с полезными и бесполезными текстами могут не отличаться по характеристикам, которые снимает алгоритм. Ассесор поймет что к чему, робот - нет. То, что каждому сайту зададут свой коэффициент, нереально. Кроме того сайты меняются со временем. Так что чисто технически если сайт вписывается в заданный гуд-шаблон, то повезло.
Бот не различает написано там о том как гладить или важные фишки. Тупому и ленивому программисту проще написать алгоритм учета длины текста, насыщенности его ключами. Связать длину с юзабилити, пф и другими факторами намного сложнее и неоднозначно.
Яндекс-выдача все лучшее и лучшее.
Запрос "типы рнк"
Второе место: referatwork.ru/category/sport/view/438148_tipy_rnk Там даже скан-текст сцуко не исправлен.
Гуру, объясните почему?
Вот еще сайты, которые просели (в прошлом году по многим проверяемым мной запросам стояли в топе, сегодня ниже или на второй странице):
beaplanet.ru
sbio.info
jbio.ru
ebio.ru
biofile.ru
biology.ru
Появились более менее стабильные новые игроки:
appteka.ru
biology-info.ru
biology.su
universalinternetlibrary.ru - по ряду ВЧ появляется в топе, при том что сайт недоступен не первый день и что там есть воще не знаю
syl.ru - аналог fb.ru, который в последних выдачах приопустило, неделю-две назад стоял выше.
В чем смысл?
Прикинь как она удивляется 🤣
Но когда страница нужна для облегчения навигации по сайту, остается только через роботс.
И тут вопрос: нужно ли закрывать карты сайта (те что для людей)- списки ссылок по разделам, текста нет? Для выдачи они бесполезны, из нее на них никто не заходит, а их функции для ботов по сути выполняет sitemap.
А в robots.txt не проще закрыть от индексирования?
Удобство ваше все.
Там статьи хорошие. Не просто глубокий копирайт, а авторская систематизация и структура. Уникальность.
Открывает школота много букф, неудобную навигацию, пугается и закрывает.
Баден тут причем? Банят за низкий ПФ, а не за содержание. Причем возможно какую-то определенную характеристику в алгоритм вставили. Допустим, посетители пролистывают и закрывают - значит дурь. Картинки, ссылки, удобство чтения задерживают внимание. Поэтому сайты с ними пошли в топ. Скоро все сайты превратятся в передачу Андрея Малахова. А ты не такой, хочешь научный текст? Ищи его на 101 странице выдачи.---------- Добавлено 09.05.2017 в 00:10 ----------
То есть много схожего текста на разных страницах.
Голословно, но ок.
Вот, на мой взгляд, шедевр для ниш "образование", "наука" на уровне авторских блогов, статейников http://bono-esse.ru
не знаю падал весь сайт или нет, но посмотрите на запрос "строение ДНК", стоит на второй странице. Например, вот это http://lektsia.com/2x2fc7.html ранжируется часто даже выше.
"написание" - да, так не говорят (разработка, создание корректнее).
от слова "программа" при определении термина никак не избавишься.
Ну вот этот например упал http://pas1.ru Стата там открыта. По ряду ВЧ не вижу на первой (раньше был), в гугле вижу.