Дубли вообще не должны быть доступны для роботов.
rel="canonical" подходит для похожих страниц (например: пагинация), а для дублей однозначно 301 редирект, но желательно на страницу-оригинал, если такое невозможно технически, то можно на главную или на какую-нибудь родительскую страницу
При необходимости сделать код сайта валидным возможно использование тега в следующем формате:
<!--noindex-->текст, индексирование которого нужно запретить<!--/noindex-->
это не подойдет для гугла
Каких например?
тогда
или
ну и где здесь АП?
с годовщиной ;)
первые десять, потом привыкаешь😂
уже на первое :)
роботс пропишите
User-agent: *
Disallow: /tags/
Host: самсайт.ру
при первом обращении робота, он первым делом прочитает роботс и выкинет все лишнее
а волосы на ладонях не вырастут? 😂
точно, вырастут 😂
Вот умные люди подсказали, как не покрыться растительностью на руках
В доп. столбце формулу:
=СЧЁТЕСЛИ($A$1:$A$10;"*"&A1&"*")>1
кликнуть на формулу и растянуть на весь столбец
отфильтровать по ИСТИНА и удалить
если 10 раз слово "окна" будут употреблены в рамках существующего текста, т.е. 10 слов (не стоп-слов) будут заменены на "окна", то релевантность запросу "двери" не изменится, так как для "двери" ничего не изменится, по прежнему останется 10 "дверей" в том же количестве текста.
Релевантность документа разным словам это не сообщающиеся сосуды, релевантность "окнам" не может уменьшить релевантность "дверям", скорее даже наоборот, 1000 ссылок с "окнами" увеличат статвес документа, который увеличит релевантность по "дверям"
статвес будет в 10 раз больше и в 10 раз больше увеличит релевантность по "дверям"
Вопрос во времени, лучше siteA.ru предварительно удалить из индекса.
Склейка нет, а вот в индекс siteB.ru попадет гораздо раньше
Заглушки точно не хватит, склеиваются зеркала - копии (возможно не 100 процентные) сайтов , а так у вас будут разные сайты, скорее всего аффилированные, но оба в индексе.