весь текст в коде учитывается.
возможно изменение релевантной страницы с соответствующим проседанием запроса в выдаче. стоит с помощью внутренней перелинковки прокачать по анкору именно главную страницу
то есть по-вашему оптовики формируют свои товарные базы от балды? куплю-ка я арматуры вагон -все равно какого класса и из какой стали. логичней же формировать товарную базу исходя из потребностей конечников, а эти самые конечники в итоге ищут что-то очень определенное.
то чувство, когда тебе не дали денежек на оллпозишн. трафик все ж растет черепашьими темпами - и на том спасибо!
возможно, cms генерирует дубли или какие-то пустые страницы. если их нет в поиске, то и переживать не стоит. если залезет что в поиск - тогда станет понятно, откуда ноги растут.
запретом на индексацию вы запрещаете только попадание страниц в поисковой индекс, но это не значит, что робот гугла там не бродит. в Search Console в Инструменте проверки файла robots.txt можно предварительно экспериментировать с вариантами закрытия от индексации, прежде чем вносить в реальный роботс изменения. скорей всего сработает Disallow: */#
Allow: /dir/
когда мне копировали сайт для казахстана - я сразу попросила снести на копии все тексты и мета-теги. остальное все то же самое. написали отдельные тексты, другие тайтлы и дескрипшн. все норм двигается, без проблем. домен, естественно, должен быть kz.
а зачем пользователю эти статьи? ему уроки нужны, сервисы, грамматика, описания программ, прейскуранты и скидки, расписание занятий. тематика очень конкурентная.
на https не переходили ( в этом случае тиц тоже может слететь и позиции попадать)? и кто, собственно, обвиняет в продаже ссылок? сами яндексоиды так сказали? сервисы проверки на агс могут и приврать. если сами яндексоиды так сказали, то попросите у них примеры платных ссылок с вашего ресурса.
вебвизор смотрите, куда с той страницы шли и что делали, потом видюшку партнеру покажите, если он не прав)