У Пикселей отличный анализатор. Один из лучших.
Просто нужно уметь пользоваться.Он анализирует и семантику, и объем страницы в целом, и в этом достаточно точен. Да, нужно корректировать объем, и ключи тоже (например для ИМ, если у тебя на странице 10 карточек товаров, а у конкурентов в среднем 30, - тебе порекомендует +20 вхождений, - разумеется, не нужно все это пихать в зону текста).
Есть платные сервисы, которые отдельно каждую область страницы анализируют. Но во-первых, еще ни одного нет, который бы все зоны документа правильно воспринимал на разных сайтах, во-вторых - если перепроверить вручную - косяков очень много.
Если автор хочет какие-то решения "вставил ключи - получил ТЗ - отправил копирайтеру без разбора" - это перечисленные техзадаторы, сеоциллин, и пр. Но на самом деле так нельзя - это не работает хорошо.
Лучше взять Пиксель или Раш Аналитикс, немного включить логику, и добавить ручной работы (поправить). Это не так быстро, как "вставил ключ - скачал файл", но время все равно экономит.
А по готовности контент еще и Тургеневым желательно проверить). Но тоже с логикой и без фанатизма.
Страшно. Если фильтр актуален, основноф сайт добью..
Аффилиат-фильтр официально не существовал. Платоны его всегда отрицали) Так что, очень странно, что вам его кто-то подтверждал.
Сейчас фильтр работает, но иначе. Из индекса страницы не выкидывает, просто не ранжирует по одним и тем же запросам оба (2,3,5) сайта в ТОП10. Сейчас у очень и очень многих магазинов по нескольку сайтов. Не дублируйте адреса и телефоны, если есть возможность - разместите уникальные реквизиты. Тогда точно нечего бояться.
Остальные страницы будут индексироваться?
Да.
Вы всегда все изменения можете предварительно проверить в Яндекс.Вебмастере, без внесения изменений на сайт.
Добавляете директиву в форму с robots, которую вывел Яндекс:https://i.imgur.com/ev0NBr1.pngНичего в ней не нажимаете.
Внизу форма для проверки. Туда вставляете нужные для проверки урлы, и нажимаете "Проверить"
https://i.imgur.com/7pOsebH.png
Все эти действия никак ни на что не повлияют, никаких изменений на сайт (или для Яндекса) не внесут.
Покажите саму директиву "Sitemap:" (как все это выглядит у вас в роботс)
Disallow: /$