И немудрено. Тут скорее вопрос валидности html, чем какая-то суперважность h1 как текстовой зоны для ранжирования. А на валидность ПС всегда плевали.Те же гуглоиды отмечали, что гуглобот за заголовок принимает тот заголовок, который написан самым большим шрифтом, без ориентации на конкретный тег. Правда или очередной бред из лысой головы Мюллера - не знаю, не тестировал. Но логика тут есть.
Не надо искать уник, надо брать структуру и факты. Тут уже вопрос профессиональных навыков райтера/переводчика. Он должен понять тему и изложить её в соответствии с заданной структурой.Для самых простых задач достаточно просто толкового перевода, не следующего оригиналу слово в слово - скажем, для размещения "вечных" ссылок на биржевых сайтах такого достаточно. Для серьёзных задач - ну, возьмите 2-3 текста, скомпилируйте и отредактируйте по уму. Это намного дешевле, чем обращаться к хорошему райтеру с прайсом 2-10 тысяч, и куда как лучше, чем работа писарей с "адвеги" за 30 рублей тыща знаков.
А там политика такая со времен Першиной как минимум. "Делайте сайт лучше, я сама хз, что это значит". И они ведь реально не знают. Говорящие головы ссылаются на матрикснет (он такой таинственный), другие - просто школота, которая пришла на пару кварталов для портфолио. Ну, и люди, которые рулят ручной формулой, а это могут быть яндексоиды из обеих этих категорий.
Тупо для примера. Два сайта, одна тематика. Красненьким помечена зона, когда всё продвижение свели к накруткам. первый скрин - показы.
Второй - скрин - запросы в топ. Несмотря на рост видимости, в позициях - стагнация. Оранжевый умудряется что-то продавать на лояльных клиентах и униках в ассортименте, конверсии синенького - околонулевые.
Вот и всё, что нужно знать о среднестатистических накрутках ПФ, их влиянии на продвижение и главенстве в Яндексе.
ПФ как главный фактор ранжирования - тоже миф. Да, почти любой ресурс можно размотать до топов из ниоткуда за недели, дни и даже часы. Вопрос объёмов трафика и технологии. Но куда потом девается такой сайт? Они не живут долго, если топы получены только накрутками. Пара месяцев, квартал - и досвидос.При этом даже в периоды, когда не крутил только безрукий, можно было обойтись и без манипуляций с ПФ, и поставить сайт в топы только за счёт текстовых и ссылочного.
До вливания денег можно просто поднять контент из вебархива и посмотреть, как дёрнется.Разговоры про "карму" домена - это обычно уже из области мистики. Ссылочные фильтры я бы сразу отбросил, ПФ - ну, год-то прошёл? Все остальные фильтры - редкость и архаика.
Времена меняются. То, что бот зашёл на сайт - ещё не значит, что он будет парсить контент. Или весь контент, а не один какой-то важный (для него) абзац или другой фрагмент. Мы этого не знаем, и всё, что у нас есть - это а) данные консоли; б) логи. То есть количество урлов, страницы в индексе в сопоставлении с тем, что там должно быть, плюс какая-то динамика по сканированию конкретных папок.
В консоли фиксируются только странички, там не понять, что бот старательно перебирал js и прочие служебные файлы. А это - тоже часть лимита.Стало быть, говорить исключительно о лимите сканирования - не совсем корректно. Но других терминов пока нет.
Так. Но соцсети, реклама и т.п. - вполне себе способ обратить внимание ПС на сайт. Что толку от работ, если гуглобот скажем, заходит раз в месяц, смотрит что-то своё и сваливает, а изменений не видит?Я тут по паре проектов столкнулся с проблемой просто обновить через консоль robots.txt. Сутки у него на это уходят - тупо спарсить один текстовый файлик. По стандартной схеме, вручную.