Оба этих полудурка, Гугл и Яндекс, просят не использовать рендеринг в контентной части - пофиг; два слова но выкатим через фронт.Хедер отдельная история, яб банил на входе с такими шапками, просто, за не уважение к ресурсам кормильца и поильца)))
Что касается вопроса:Если явление носит массовый характер, если BQ опережают поиск или стремятся уровняться, попробуйте убрать заголовки
<h2 class="text-l text-black font-bold">
Замените их на span. Делать такую разметку было не слишком дальновидно при таком контенте.
Почему? Давайте попростому, если обычный рукожоп умудряется нечаянно отдать 500-ый ответ на работающей странице и провалить индексацию, то почему бы вам не сделать нечто похожее там, где это необходимо? Ну 500-ый конечно круто, 403-го за глаза.
Мир (белор. Мір) — городской посёлок в Кореличском районе Гродненской области Белоруссии на реке Миранка. В Мире́ сохранился знаменитый замок Ильиничей и Радзивиллов — объект Всемирного наследия ЮНЕСКО, который принёс популярность этому месту не только в Белоруссии, но и в странах ближнего зарубежья.
Пятнадцатый век с развитым туризмом? Это тут нет коммерческого интереса? Или есть еще один?
Скажем так, Яндекс должен отличать, даже пруф есть, но я найти его не могу... на старом Серче помогли бы, на современном, сильно сомневаюсь. Искать нужно доклад Яндекса на английском от 2010-2014 года, на тему математического ожидания появления лемм в тексте. Там на 146% есть прямые ответы на все ваши вопросы.Базовый смысл в том, что они знают как пишут в русском рунете, что, с одной стороны, не может не давать профита в паливе переводов, с другой стороны, точно должно палить любую нейронку. Базу они добирали дважды за последний период. Видимо наговнопостили столько что пришлось усреднять смещение корпусов)))Есть ли подобные замуты в Гугле и если есть, то есть ли они для русских корпусов, я не знаю...
Неа, нет русских опознавателей, как нет и баз под них, а у кого есть, тот не поделится еще долго))))Общий посыл поста: ребзя помогите найти доклад)))
Есть два сценария:1. Это накручено всякими кейколлекторами2. Это реальный спрос на хвосты к запросуВ обоих сценариях вы упускаете что-то важное, ну типа НЛО, урановых шахт, озеро где Грозный топил своих жен и т.д.
Тут вот в чем прикол. Если посчитать то самое среднее по больнице, скажем для 10 000 страниц конкурентов, то оно невообразимым образом будет коррелировать с пейдж спидом. Хотя из аргументов в пользу ничего не делать я слышал и рассказы про сеть.Ну т.е. если эта гугловская поделка показывает плохие результаты, то на больших выборках, они один хрен плохие))) Другой вопрос, что выборки надо делать, а это из кластера "ну его нафиг", так что остается верить гуглу на слово)))
Ну вот просто: Зачем?Они же в шаге от того чтобы скачать файл индексации и своими глазами посмотреть на индекс, но не будут этого делать... просто потому что не будут.Причем из виду упускается уровень риска, как несущественная деталь, т.е. признается что каноникал это рекомендация и тут же предлагается закрывать ей дубли, т.е. страницы несущие не рекомендательные сообщения в явм, а конкретные проблемы в ранжировании.
Это как с оптимизацией <head>, хочешь услышать какое ты говно, посоветуй вычистить <head>))))Кроме того старт пост вполне себе цельно подает информацию: у меня дубли - это нормально
Браузер, да? Угу... нет, конечно можно допустить, что на профильном форуме аудитория не в курсе, но было бы странно.На всякий случай
если вдруг совсем все плохо
т.е. с ваших слов, мы можем смело зайти в явм и там в разделе поисковых запросов будут пустые страницы, т.к. Яндекс показывает статистику только до ТОП-50?Ну и собственно совет: Снимите статистику в ЯВМ в разделе мониторинг запросов, потом повторите маневр с Я бизнесом и проверьте статистику еще раз, когда почувствуете неладное... есть конечно шанс, что она будет пустая, но мне кажется это маловероятным.
насколько важны эти милисекунды и зеленые зоны в PageSpeed Insights и учитываются ли они в ранжировании сайтов?
Вот так вот обрежу, потому что вы задали сложный вопрос. У вас две проблемы: вы посмотрели пару сайтов и взяли в качестве примера какой-то один сайт.На деле у нас получается так:Есть поисковый запрос у которого есть некоторое количество СЕРПов (раньше был один, теперь скорее ТОП-1 в степени n, где n количество посчитанных шаблонов для ПФ той или иной группы); Вот в каком-то из этих ТОП-1, у какого-то сайта будет многолетний ТОП без http, а в соседнем ТОП-1, по этому же запросу, будут важны миллисекунды. Как это все рассчитывать я хрен его знает.Но, я обратил внимание на то, что Яндекс делит СЕРП на зоны: ТОП-1, ТОП-2, ТОП-3-4, ТОП-5-10, ТОП-11-50 и если взять не пару сайтов для каждой группы, а по паре тысяч, то, вы знаете, на самом деле складывается некоторая закономерность.Например медиана для группы ТОП-1 может быть 0,015 сек, а для группы ТОП-10 0,8 сек... и так по всей выборке скажем из 30К запросов внутри кластера. Может какая-то группа пользователей получать старый сайт без ssl в ТОП-1, в рамках этой выборки? Конечно. Мало того, вы удивитесь, но этих сайтов там будет даже не три. Но вот в чем дело, статистически без ssl и медленнее 0,015 сек, вы, скорее всего, будете за 10-ой, как и большинство из вашей выборки.Это прямой ответ на ваш вопрос. Из альтернативных версий, я надысь обнаружил, что у всех лидеров определенная модель сервера на фронте, а у всех оутсайдеров любая другая и, самое смешное, проблемы поставленные по проекту, не противоречат этому открытию.Сложно? Можно проще. Заходите в ЯВМ в мониторинг запросов и скачиваете отчет, там пара недель. В экселе пересчитываете колонки, беря везде среднее, а для позиции медиану (потому что там уже среднее) если медиана даст ноль, принимаете как ноль, даже если были дни с ТОП-1... ну вот.А потом ищите запросы где у вас получается следующая картина: позиция ТОП-1, а покрытие спроса не 100%; находите и пытаетесь ответить почему)))) ТОП-1 же, как это может быть не 100%?))))