Если пользователю создается неудобство, он пойдет в другие места.
Я уже давно не обращаю внимания на позиции, директ. Ориентируюсь на отзывы, обзваниваю, при личном контакте многое становится понятно. Владельцы бизнесов часто реально тупы. Они заказывают раскрутку сайтов, рекламу, но на тех же материалах и монтажниках экономят. Поэтому клиент у них одноразовый, а рекламы надо все больше и больше.
Если школьник в школе на андроиде в гугле находит ответ быстрее, чем дома в яндексе, то не пройдет и месяца, как гугл будет стоять поисковиком на компе. А вот его учительница Марьиванна скорее всего в яндексе останется и будет мучиться.
Судя по последним тенденциям казус вырисовывается. Гуглу дай простыню, яндексу загони все в таблички и чем меньше, тем лучше. А там где таблицей и списком нельзя, научись излагаться картинками.
Может яндекс решил, что идя в разночтение с гуглом, он получит выгоду в перспективе?
Многолетнее улучшение поиска скорее всего привело к тому, что ПС обзавелась столькими различными параметрами, переключателями и коэффициентами, что их взаимодействие уже никто не понимает, а те кто хоть как-то шарит, начальству хрен скажет. Поэтому и тестируют постоянно.
Таблица там уже есть profmeter.com.ua/communication/learning/course/course10/lesson859/ стоял последние недели 1-3. Поэтому уже понял, что таблица дает плюсов.
К тому же сравнение семян растений это не то же самое, что сравнение растений целиком. Яндекс не умеет отличать это.
Про ржач над ВЧ. В определенные месяцы подобные запросы почти вч.
Яндексбредогенератор продолжает удивлять, откапывает чудные сайты из своих анналов.
nrk.kipk.ru/body/pie/body/6/seeds/p7aa1.html - выпадает в первой пятерке на запрос "сравнение двудольных и однодольных растений".
Понятно что хозяин-барин. И когда ты у одного первый, а у другого 21, ясно кому служить пойдешь. У информационных сайтов траф больше с гугла.
Подстраиваясь под алгоритмы одного, всегда есть шанс не вписаться в алго другого, так как они у них далеко не идентичны. Учитывая непредсказуемость Яндекса, нафик надо.
Это у комерции нет выбора. Вот Яндекс вас и имеет. Хорошо, не вас крутых оптимизаторов. Тех кто послабее. Раньше стояли в топе, теперь где повезет в какой день. Мы изобрели генератор псевдослучайных чисел, а формулу скрыли. Не нравится, хочешь стабильности? топай в директ. Почву для тебя подготовили, куча площадок. Это ниче что почти ГС, авось и бизнес твой ГС, скоро загнется, а мы поможем, вампиром денюшку отсасывая.
Если Директ, РСЯ и поисковая выдача между собой связаны (что скорее всего так), то по теме.
Сегодня часов в 11 подал сайт в РСЯ. Сайт сырой, некоторые разделы прям явно не доделаны. Посещаемость не каждый день по 500 (но нынче берут и с сотней). Гляжу в 20 часов уже висит в режиме "тестирование", т. е. взяли (раньше не меньше недели ждал). Причем когда подал заявку, то надпись была что-то вроде "ждет подтверждения" или "не утвержден", а раньше (где-то полгода назад) подписывало "на модерации". Т.е. сегодня речь даже не идет о полноценной модерации. Берут всех и каждого.
Те кто пользуется Директом. Вы видите на каких площадках откручивается ваша реклама? Можете отключать неугодные сайты?
Комерсанту выгодно чтобы его реклама крутилась на нескольких качественных ресурсах, или была размазана по сотне мелких неважно какого качества, или вообще без разницы? А какой вариант выгоден яндексу и почему?
Тут не так все просто. Способов много и все неоднозначны.
Кроме того это инструмент для манипуляцией выдачей в выгодную для себя сторону.
И модераторскую оценку чему? Группе сайтов совпадающих с тем или иным шаблоном? Каждому сайту? Если такое есть, то оно до моих тематик не дошло (потому как каша полная), пока видать только в коммерции.
Представим. Сидит ассесор. Ему пару запрос-сайт. Он дает оценку. С сайта бот снимает сотню характеристик. Теперь все сайты с параметрами близкими к проверенному ассесором получают близкую оценку и ранжируются близко друг к другу.
Сайты с полезными и бесполезными текстами могут не отличаться по характеристикам, которые снимает алгоритм. Ассесор поймет что к чему, робот - нет. То, что каждому сайту зададут свой коэффициент, нереально. Кроме того сайты меняются со временем. Так что чисто технически если сайт вписывается в заданный гуд-шаблон, то повезло.
Бот не различает написано там о том как гладить или важные фишки. Тупому и ленивому программисту проще написать алгоритм учета длины текста, насыщенности его ключами. Связать длину с юзабилити, пф и другими факторами намного сложнее и неоднозначно.
Яндекс-выдача все лучшее и лучшее.
Запрос "типы рнк"
Второе место: referatwork.ru/category/sport/view/438148_tipy_rnk Там даже скан-текст сцуко не исправлен.
Гуру, объясните почему?
Вот еще сайты, которые просели (в прошлом году по многим проверяемым мной запросам стояли в топе, сегодня ниже или на второй странице):
beaplanet.ru
sbio.info
jbio.ru
ebio.ru
biofile.ru
biology.ru
Появились более менее стабильные новые игроки:
appteka.ru
biology-info.ru
biology.su
universalinternetlibrary.ru - по ряду ВЧ появляется в топе, при том что сайт недоступен не первый день и что там есть воще не знаю
syl.ru - аналог fb.ru, который в последних выдачах приопустило, неделю-две назад стоял выше.
В чем смысл?
Прикинь как она удивляется 🤣
Но когда страница нужна для облегчения навигации по сайту, остается только через роботс.
И тут вопрос: нужно ли закрывать карты сайта (те что для людей)- списки ссылок по разделам, текста нет? Для выдачи они бесполезны, из нее на них никто не заходит, а их функции для ботов по сути выполняет sitemap.