что собственно и требовалось доказать, все нормально с Вашим файлом
используйте urldecode и будет Вам счастье
тут собственно написано "тестомесы"
например так
<? $i = "%D1%82%D0%B5%D1%81%D1%82%D0%BE%D0%BC%D0%B5%D1%81%D1%8B"; echo urldecode($i); ?>
Кто - он?
Гугл учитывает только первую ссылку в тексте,
Яндекс учтёт и первую и вторую
Это был вопрос к ТС.
Что-бы зря не гадать, давайте файл лога сюда в аттач или на мыло и всё будет ясно
урл сайта там не записывается.
если править и пересохранять, то потом вообще не разберёшься.
Чего-то сейчас подумалось, а кракозяблами Вы случайно не такое называете:
если да, то это не кракозяблы, через urldecode прогоните.
Если это не слишком большая тайна - киньте мне свой файл лога на moonters[d-o-g]gmail.com
помогём разобраться.
только исходный вариант в архиве, ничего перепаковывать не надо.
Microsoft со своим IE из этого правила выпадает
в процессе индексации слова приводятся к начальным формам и хранятся в индексе в таком виде.
Таких словоформ может быть масса:
купить
куплю
купил
купила
купили
и т.д.
они в индексе так не хранятся.
и поиск происходит соответственно по начальной форме слова.
Ваши вопросы уже содержат в себе ответы:
вопрос 1: страницы с тэгами содержат в себе новую уникальную полезную информацию?
ответ: нет.
вопрос 2: люди будут искать через ПС такую информацию, как правила форума, страницы регистрации, профили пользователей?
Робот тратит время и ресурсы на индексацию таких страниц, а потом выкидывает их из индекса как дубли и страницы, не содержащие полезной информации, а это время и ресурсы могли быть потрачены на индексацию нужных Вам страниц.
Только почему закрывать такие ссылки через nofollow, наверное лучше через Disallow в robots.txt
регится под разными никами
разбавлять свои сайты, добавляя другие сайты
разные заголовки и описания
а это что?
вообще то все правильно сделано.
от индексации закрыты страницы для печати во избежание дублей