А зачем?
Не планируете ли умышленных действий / в составе организованной группы / с использованием неустановленных средств?
из ваших интернетов
<IfModule mod_rewrite.c> RewriteEngine on RewriteBase / RewriteCond %{SERVER_PORT} !^443$ RewriteCond %{REQUEST_URI} !^/robots.txt$ RewriteRule .* https://%{SERVER_NAME}%{REQUEST_URI} [R=301,L] </IfModule>
Ещё посмотрите на
http://yandex.ru/robots.txt
http://www.yandex.ru/robots.txt
https://yandex.ru/robots.txt
https://www.yandex.ru/robots.txt
но есть мнение, что сия традиция уже не нужна.
А большая часть пользователей вообще не знает что это такое, но по умолчанию обновляется.
Дайте корректные определения каждому из этих трёх слов.
Лучше ничего не менять.
3. вариант
Завести новые урлы, оставив доступными старые... с rel=canonical на новые.
Когда-нибудь потом сделать 301
есть вероятность, что не только сайтик, но ещё пару кредитов
Откуда столь деревенские выводы? Показать пользователю/боту можно любую сцылку...
У вас ещё куча всего не проверено, например href="/#"
Атрибут rel=nofollow не надо использовать /ru/forum/363716
страницы закройте в robots.txt
И ответа не последовало.
Ну вот вторая сцылка на ту же страницу не сработала,
на #якоря, даже несуществующие, вроде пока искалось... при наличии в запросе слов со страницы.
Вот поэтому и придётся проверить — какие ещё поля документа можно поминать для учёта таких неправильных сцылок Searchengines.ru
Изменник Родины выпустил виджет для наркоторговцев, коррупционеров и террористов, с закладками АНБ.
А здесь простой набор распростаненных-лёгких слов и /ru/news/1314306 вот.
Можете ещё проверить учёт двух сцылок на один и тот же #якорь.
______________
тёмные силы пердупреждают верующих: сам способ проверки неправилен... тут может быть проверка скорее символического влияния ... по фактически несуществующим запросам.
Реальный вклад сцылок (хотя это тоже глупая фраза) так не измеряется. Да и вообще уже не измеряется.