Sergio Mike

Рейтинг
26
Регистрация
02.12.2008
svift:
с помощью .htaccess можно победить этот гугловый аппетит http://www.svift.org/2007/https-robots-txt/

Вчера сделал также. Будем смотреть что и как.

Спасибо всем.

tutonhamon_:
недавно обсуждалось /ru/forum/429155

Там немного другая ситуация.

У меня же такая: сайт в индексе Гугла, но некоторые страницы сайта наравне с нормальными УРЛами типа http проиндексировались одновременно и c УРЛами типа https. Страницы по своей сути абсолютно идентичные, страницы https мне в индексе не нужны.

Поискал в сети информацию про аналогичные проблемы, что-то подобное есть, есть про двойные роботсы один для простого раздела, а другой специально для раздела с SSL. Но у меня на сайте всего один раздел и SSL отсутствует.

Думаю, не мог ли хостер чего с настройками сервера напортачить?

В моем случае внутренние страницы, причем никакого ssl на сайте не используется.

Согласен. Пожалуй буду тратить свое время с большей пользой, чем на общение с такими вэбмастерами. Тем более в выдаче их в ближайшей сотне не видно.

Ответили:

Google собирает и упорядочивает интернет-контент; мы не контролируем содержание веб-страниц и меняем свои результаты поиска только в том случае, если они больше не соответствуют содержанию страницы, предоставляемой третьими лицами.

Мол с вэбмастером связывайтесь.

Тогда мне удобнее сделать так:

<td><!-- #BeginLibraryItem "/Library/menu.lbi" -->

<style type="text/css">

<!--

-->

</style>

<link href="Library/menu.css" rel="stylesheet" type="text/css">

<table><noindex>

<tr>

<td> <a href="xxx.htm">название</a></td>

</tr>

<tr>

<td> <a href="yyy.htm">название</a></td>

</tr>

<tr>

<td> <a href="zzz.htm">название</a></td>

</tr>

</noindex></table>

<!-- #EndLibraryItem --></td>

Пойдет?

moonters:
что собственно и требовалось доказать, все нормально с Вашим файлом
используйте urldecode и будет Вам счастье

тут собственно написано "тестомесы"

например так

<?

$i = "%D1%82%D0%B5%D1%81%D1%82%D0%BE%D0%BC%D0%B5%D1%81%D1%8B";
echo urldecode($i);
?>

Спасибо moonters и всем остальным за участие.

moonters:
если править и пересохранять, то потом вообще не разберёшься.

Чего-то сейчас подумалось, а кракозяблами Вы случайно не такое называете:

если да, то это не кракозяблы, через urldecode прогоните.

94.28.27.98 имя сайта - - [17/Nov/2009:15:48:28 +0300] "GET / HTTP/1.1" 200 12763 "http://yandex.ru/yandsearch?clid=14585&text=%D1%82%D0%B5%D1%81%D1%82%D0%BE%D0%BC%D0%B5%D1%81%D1%8B&lr=11235" "Opera/9.63 (Windows NT 5.1; U; MRA 5.4 (build 02647); ru) Presto/2.1.1" 19872 0

Вот полностью одна из строк лога с моими крокозябрами. Целый файл выкладывать не хотелось бы, уж больно там УРЛов много.

Думаю это и есть URL-кодированная строка и силами простого редактора ее не прочитать.

Str256:
Sergio Mike, вы сделали так как я предложил?

Да сделал, ничего не изменилось.

Kirilll:
я думаю, что проблема не в том, чем читать, а в том, что лог пишет.
может быть, сервер записывает в лог не значение в УТФ-8, а собственно кракозяблы? тогда не знаю, что с этим можно сделать...

На сервере стоит Apache, не русский, mod_charset не включен.

На размышления наводит еще вот что, на сайте стоит awstats, который анализирует те же самые логи и выдает информацию по фразам на русском языке, а не крокозябрами.

123
Всего: 23