andrej-ilin

andrej-ilin
Рейтинг
42
Регистрация
28.03.2005

А что видно в логах сайта? Гуглбот заходил на сайт? Я лично нашел там всего 2 страницы :(

-=Илья=-:
Только <noindex>форма</noindex> ничего не даст - это запрещение куска страницы. Тут другой noindex нужен - <META NAME="ROBOTS" CONTENT="NOINDEX"> :
http://yandex.ru/info/webmaster2.html

Присоединяюсь к совету Ильи. Все эти приемчики с javascript, <noindex>, <a .... rel="nofollow"> никак не запрещают индексацию мусорных страниц, о существовании которых Яндекс может узнать, например, через Яндекс Бар, даже если вы отловите и переделаете все ссылки. Если движок не поддерживает уникальные тайтлы и метатеги, то нужно или дорабатывать движок или переходить на другой пока не поздно.

В этом случае также можно применить и такой прием:

Не бороться с индексацией то одних страниц, то других... а перевести страницы, которые необходимо индексировать, на псевдостатику, всю динамику же запретив в robots.txt.

А что мешает запускать скрипт, который генерит карту сайта с необходимой периодичностью через cron и сохранять ее в виде статичного html?

Jangl, расслабьтесь. Вы забыли про свой день рожденья? В такой день лучше не задаваться подобными вопросами. Ну, а если всетаки хочется получить на него серьезные ответы, то лучше сначала поискать на Яндексе. О протоколе HTTP очень много написано и в достаточно доступной форме.

За ваше здоровье!

пока не кликнешь на ссылку - не поймешь что же пользователь искал ...

Если посетитель пришел не с первой страницы выдачи, то и кликнешь - не поймешь.

Яндекс, видимо, таким образом пытается бороться с теми, кто паразитирует на его сервисе. Проблема в том, что параметр q="целое число" устаревает. Короче, если очень хочется посмотреть эту страницу, то приходится идти на Яндекс за свежим параметром q и вставлять его в URL вручную.

frame:
Нечего сказать - лучше молчи.

Вот, правильная мысль! Дело за практикой.

Я пользуюсь вот такой функцией

function utf8RawUrlDecode($source) {

$decodedStr = '';
$pos = 0;
$len = strlen ($source);

while ($pos < $len) {
$charAt = substr ($source, $pos, 1);
if ($charAt == '%') {
$pos++;
$charAt = substr ($source, $pos, 1);
if ($charAt == 'u') {
// we got a unicode character
$pos++;
$unicodeHexVal = substr ($source, $pos, 4);
$unicode = hexdec ($unicodeHexVal);
$entity = "&#". $unicode . ';';
$decodedStr .= utf8_encode ($entity);
$pos += 4;
}
else {
// we have an escaped ascii character
$hexVal = substr ($source, $pos, 2);
$decodedStr .= chr (hexdec ($hexVal));
$pos += 2;
}
}
else {
$decodedStr .= $charAt;
$pos++;
}
}

return $decodedStr;
}

Пока проблема у меня возникала только с декодированием реферов на последующие (2, 3 и т.д.) страницы выдачи Яндекса. После декодирования URL с этих страниц почему-то получается кодировка KOI-8R, а с первой страницей все нормально.

echo date("d.m.Y", time() + несколько_часов*60*60);

предпочтительней, а

$mydate = mktime(0, 0, 0, date("m"), date("d"), date("Y"), date("H")+1);

по-моему нужно исправить так

echo date("d.m.Y", mktime(date("H")+1, 0, 0, date("m"), date("d"), date("Y")));

ну, а самое оптимальное часы*60*60 умножить в уме один раз, например, для 3 часов

echo date("d.m.Y", time() + 10800);

У меня этот бот, или не бот, регулярно загружает главную страницу. Дальше не идет. Директом никогда не пользовался.

Эти шутники явно хотели привлечь к себе внимание, заинтриговать, иначе придумали какое-нибудь другое название.

Какие у вас есть основания утверждать, что это бан?

Всего: 667