moonters

moonters
Рейтинг
139
Регистрация
09.10.2008

что собственно и требовалось доказать, все нормально с Вашим файлом

используйте urldecode и будет Вам счастье

тут собственно написано "тестомесы"

например так

<?

$i = "%D1%82%D0%B5%D1%81%D1%82%D0%BE%D0%BC%D0%B5%D1%81%D1%8B";
echo urldecode($i);
?>
KupluSsilki:
но ващето он обе должен учитывать.
burunduk:
учитывает и что в этом хорошего?

Кто - он?

Гугл учитывает только первую ссылку в тексте,

Яндекс учтёт и первую и вторую

Это был вопрос к ТС.

Что-бы зря не гадать, давайте файл лога сюда в аттач или на мыло и всё будет ясно

Урлы можете изменить на другие.

урл сайта там не записывается.

только исходный вариант в архиве, ничего перепаковывать не надо.

если править и пересохранять, то потом вообще не разберёшься.

Чего-то сейчас подумалось, а кракозяблами Вы случайно не такое называете:

%D0%90%D0%BB%D0%B5%D0%BA%D1%81%D0%B0%D0%BD%D0%B4%D1%80

если да, то это не кракозяблы, через urldecode прогоните.

Если это не слишком большая тайна - киньте мне свой файл лога на moonters[d-o-g]gmail.com

помогём разобраться.

только исходный вариант в архиве, ничего перепаковывать не надо.

N_MONax:
Другое дело что валидная вёрстка даёт хоть какие-нибудь гарантии того, что сайт не надо отлаживать в каждом из них. Правда, не всегда...

Microsoft со своим IE из этого правила выпадает

в процессе индексации слова приводятся к начальным формам и хранятся в индексе в таком виде.

Таких словоформ может быть масса:

купить

куплю

купил

купила

купили

и т.д.

они в индексе так не хранятся.

и поиск происходит соответственно по начальной форме слова.

Ваши вопросы уже содержат в себе ответы:

вопрос 1: страницы с тэгами содержат в себе новую уникальную полезную информацию?

ответ: нет.

вопрос 2: люди будут искать через ПС такую информацию, как правила форума, страницы регистрации, профили пользователей?

ответ: нет.

Робот тратит время и ресурсы на индексацию таких страниц, а потом выкидывает их из индекса как дубли и страницы, не содержащие полезной информации, а это время и ресурсы могли быть потрачены на индексацию нужных Вам страниц.

Только почему закрывать такие ссылки через nofollow, наверное лучше через Disallow в robots.txt

регится под разными никами

разбавлять свои сайты, добавляя другие сайты

разные заголовки и описания

<meta name="robots" content="noindex, nofollow" />

а это что?

вообще то все правильно сделано.

от индексации закрыты страницы для печати во избежание дублей

Всего: 470