Да на за что.
ну если так, то закрывать смысла нет.
Поиск разберется, что индексировать, что - нет.
прямо в таком же количестве, что и до этого?
сотни тысяч страниц?
а вот это уже неверно.
Пользователю, как правило, нет разницы в таких нюансах.
А с точки зрения ранжирования разница есть.
Я даже нашел статью, на которую в свое время ориентировался при решении задач с оптимизацией меню - https://siteclinic.ru/blog/case/kak-vernuli-trafik-na-sajt/ (блок про онлайн-переводчик).
а какие страницы?
А по хабовым страницам есть данные, насколько их добавление на сайт помогает ускорить индексацию?
Имею в виду страницы такого формата - http://www.vseinstrumenti.ru/sadovaya_tehnika/.
Во всех подзаголовках смысла делать вхождение нет.
Вхождения в подзаголовки по значимости будут приравнены ко вхождениям в основной текст.
Особой роли с точки зрения текстовой релевантности у них нет.
Видимо, вынести код в отдельный файл и загружать его с помощью JS.
Только зачем это нужно?
Скоре всего вам это на самом деле не нужно.
Так видимо попадают в индекс не добавляемые страницы, а технические.
Нужно выгрузить данные по всем страницам с пометкой BAD_QUALITY, выделить технические и их в первую очередь закрыть.
Информативные страницы будут по-прежнему индексироваться (или лучше, ведь им ничего не будет мешать, а сейчас не исключено, что технические страницы препятствуют их индексации).
Отличие ссылок и текста и отличие спамности и неспамнсти - это разные вещи.
Спам может быть как в тексте, так и в анкорах.
Важно не это, а порог.
Тут признаков спама не видно, ссылок в примере всего 5 штук.