plab

Рейтинг
428
Регистрация
26.04.2010
Gzas:
В директе вообще твориться волшебные вещи) Особенно, когда начинаешь анализировать трафик. Но это не по теме.

Если Директ, РСЯ и поисковая выдача между собой связаны (что скорее всего так), то по теме.

Сегодня часов в 11 подал сайт в РСЯ. Сайт сырой, некоторые разделы прям явно не доделаны. Посещаемость не каждый день по 500 (но нынче берут и с сотней). Гляжу в 20 часов уже висит в режиме "тестирование", т. е. взяли (раньше не меньше недели ждал). Причем когда подал заявку, то надпись была что-то вроде "ждет подтверждения" или "не утвержден", а раньше (где-то полгода назад) подписывало "на модерации". Т.е. сегодня речь даже не идет о полноценной модерации. Берут всех и каждого.

Те кто пользуется Директом. Вы видите на каких площадках откручивается ваша реклама? Можете отключать неугодные сайты?

Комерсанту выгодно чтобы его реклама крутилась на нескольких качественных ресурсах, или была размазана по сотне мелких неважно какого качества, или вообще без разницы? А какой вариант выгоден яндексу и почему?

Алексей Питерский:

в переменную модераторскую оценку прикрутить

Тут не так все просто. Способов много и все неоднозначны.

Кроме того это инструмент для манипуляцией выдачей в выгодную для себя сторону.

И модераторскую оценку чему? Группе сайтов совпадающих с тем или иным шаблоном? Каждому сайту? Если такое есть, то оно до моих тематик не дошло (потому как каша полная), пока видать только в коммерции.

Представим. Сидит ассесор. Ему пару запрос-сайт. Он дает оценку. С сайта бот снимает сотню характеристик. Теперь все сайты с параметрами близкими к проверенному ассесором получают близкую оценку и ранжируются близко друг к другу.

Сайты с полезными и бесполезными текстами могут не отличаться по характеристикам, которые снимает алгоритм. Ассесор поймет что к чему, робот - нет. То, что каждому сайту зададут свой коэффициент, нереально. Кроме того сайты меняются со временем. Так что чисто технически если сайт вписывается в заданный гуд-шаблон, то повезло.

Алексей Питерский:

Но если речь об утюгах, то как гладить им тупость полная. Но в утюге могут быть свои фишки, которые есть смысл описать даже сточки зрения конверсии. Тут и портянки целые можно писать. Нужно только желания и мозги + инфа о продукте.

Бот не различает написано там о том как гладить или важные фишки. Тупому и ленивому программисту проще написать алгоритм учета длины текста, насыщенности его ключами. Связать длину с юзабилити, пф и другими факторами намного сложнее и неоднозначно.

Яндекс-выдача все лучшее и лучшее.

Запрос "типы рнк"

Второе место: referatwork.ru/category/sport/view/438148_tipy_rnk Там даже скан-текст сцуко не исправлен.

Гуру, объясните почему?

Вот еще сайты, которые просели (в прошлом году по многим проверяемым мной запросам стояли в топе, сегодня ниже или на второй странице):

beaplanet.ru

sbio.info

jbio.ru

ebio.ru

biofile.ru

biology.ru

Появились более менее стабильные новые игроки:

appteka.ru

biology-info.ru

biology.su

universalinternetlibrary.ru - по ряду ВЧ появляется в топе, при том что сайт недоступен не первый день и что там есть воще не знаю

syl.ru - аналог fb.ru, который в последних выдачах приопустило, неделю-две назад стоял выше.

В чем смысл?

evagrom79:
когда РСЯ через "вторые руки" себе же заглушкой стоит?

Прикинь как она удивляется 🤣

slavok:
в плане эффективности вопрос спорный, я посчитал что лучше сделать так. Да и касательно того что "проще", то редирект поставить не намного сложней))

Но когда страница нужна для облегчения навигации по сайту, остается только через роботс.

И тут вопрос: нужно ли закрывать карты сайта (те что для людей)- списки ссылок по разделам, текста нет? Для выдачи они бесполезны, из нее на них никто не заходит, а их функции для ботов по сути выполняет sitemap.

slavok:
Делал редирект на страницу, которую посчитал более качественной\релевантной. При необходимости немного правил контент на этой странице.

А в robots.txt не проще закрыть от индексирования?

LawbreaK:
удобнее читать контент и передвигаться по навигации

Удобство ваше все.

Там статьи хорошие. Не просто глубокий копирайт, а авторская систематизация и структура. Уникальность.

Открывает школота много букф, неудобную навигацию, пугается и закрывает.

Баден тут причем? Банят за низкий ПФ, а не за содержание. Причем возможно какую-то определенную характеристику в алгоритм вставили. Допустим, посетители пролистывают и закрывают - значит дурь. Картинки, ссылки, удобство чтения задерживают внимание. Поэтому сайты с ними пошли в топ. Скоро все сайты превратятся в передачу Андрея Малахова. А ты не такой, хочешь научный текст? Ищи его на 101 странице выдачи.

---------- Добавлено 09.05.2017 в 00:10 ----------

alaev:
Там скорее причина вот в этом. И далее по той же схеме.

То есть много схожего текста на разных страницах.

LawbreaK:
Это не ГС разве что в разрезе ниши, там и хуже есть. А так - полнейший.

Голословно, но ок.

Вот, на мой взгляд, шедевр для ниш "образование", "наука" на уровне авторских блогов, статейников http://bono-esse.ru

не знаю падал весь сайт или нет, но посмотрите на запрос "строение ДНК", стоит на второй странице. Например, вот это http://lektsia.com/2x2fc7.html ранжируется часто даже выше.

yRamil:
Программирование - это написание программ

"написание" - да, так не говорят (разработка, создание корректнее).

от слова "программа" при определении термина никак не избавишься.

Всего: 5802