Выкидывают, конечно, но это процесс отладки и совершенствования, где ошибки бывают, но вероятность их появления всё убывает. Лес рубят - щепки летят. В целом, глупо не видеть очевидного - нечеловеческие тексты (я бы даже сказал - антигуманные :)) будут фильтроваться всё сильнее, а на человеческие нужно тратить ресурсы.
Когда речь идёт о НЧ - я бы посоветовал создать под каждый отдельную страницу (если это не очень трудоемко), т.к., во-первых, эта страница будет максимально релевантной под конкретный запрос, во-вторых, между этими страницами можно и нужно сделать перелинковку, в-третьих, увеличивается стат. вес сайта (больше контента - лучше). Таким образом, можно вообще обойтись без внешнего ссылочного
Давай-те подумаем что делать дальше. Какова дальнейшая стратегия?
Для этого предлагаю определить тренд.
IMHO, тренд - это ужесточение фильтра на индексацию контента. Грубо этапы: фильтр за полный копи-паст - фильтр за низкую степень уникальности - фильтр за среднюю степень уникальности. Дополнительная фильтрация генерированного контента через лингвистические алгоритмы. Вектор нам указывает на необходимость максимально качественного контента.
Какова причина ужесточения фильтра? Контент в интернете прирастает сумасшедшими темпами, для того, чтобы успеть за этим (да ещё вводя сложные фильтры), необходимо пропорционально увеличивать серверные мощности - а это деньги. С деньгами сейчас в яндексе сложно (из-за кризиса директ пустеет), а остановить процесс прироста мощности - значит отстать от гугла, а это потеря рынка - верная дорожка к забвению, которой прошёл апорт и идёт рама.
Соответственно индексировать нужно то, что хочет увидеть пользователь по информационным запросам, а по коммерческим нужно усложнить продвижение - "хочешь продавать - вот тебе маркет и директ". Поэтому генерированный контент и размноженные статьи - явное зло для яндекса - сервера забивают, люди не читают, на коммерческую выдачу влияют. Думаю, что в связи с этим не долго будут жить статейные помойки, кстати, можно видеть, как выпадают seo размноженные статьи из индекса. Можно предположить, что генерированные тексты - большее зло чем ссылочные биржи - те хоть индекс практически не забивают.
Что же делать? Ответ - работать на новом качественном уровне. Это трудоёмко, а значит дорого и долго, но сейчас это переживает весь мир - расплата за перепотребление.
В такой ситуации достаточно сложно поставить точный диагноз, да и проблема может быть многофакторная. Думаю, что поможет комплекс мер: трастовые ссылки + разбавка анкор-листа+ререайт и доп. оптимизация контента.
Это интересно. А на сколько надо уникализировать CSS? На 10% разного кода? 😂 Что касайтеся определения уникальности - процент совпадения - это не единственный параметр, точнее он корректен при учете длины шингла.
Садовский как-то сказал, что упоминание запроса в урле (при верной транслитерации) равноценно упоминанию в тексте страницы по весу. Отсюда следует, влияние и сила этого влияния.
А какой движок вы использовали?
1) На мой взгляд, дизайн не мешает сделать текст больше.
2) Включенный стиль в h1 следует убрать - пропишите его в css.
3) Над региональной привязкой поработайте
Правильно понимаете. Часто так происходит в случае, когда контент на сайте не уникальный. Яша
старается не забивать свой кеш копиями
В России с законодательством возможны разные фокусы и примеров тому - масса. Множество абсурдных идей было доказано с точки зрения их юридической состоятельности (взять хотя бы патентное право). Ваш вопрос, наверное, следует задать на форуме юристов в качестве задачи.