А что видно в логах сайта? Гуглбот заходил на сайт? Я лично нашел там всего 2 страницы :(
Присоединяюсь к совету Ильи. Все эти приемчики с javascript, <noindex>, <a .... rel="nofollow"> никак не запрещают индексацию мусорных страниц, о существовании которых Яндекс может узнать, например, через Яндекс Бар, даже если вы отловите и переделаете все ссылки. Если движок не поддерживает уникальные тайтлы и метатеги, то нужно или дорабатывать движок или переходить на другой пока не поздно.
В этом случае также можно применить и такой прием:
Не бороться с индексацией то одних страниц, то других... а перевести страницы, которые необходимо индексировать, на псевдостатику, всю динамику же запретив в robots.txt.
А что мешает запускать скрипт, который генерит карту сайта с необходимой периодичностью через cron и сохранять ее в виде статичного html?
Jangl, расслабьтесь. Вы забыли про свой день рожденья? В такой день лучше не задаваться подобными вопросами. Ну, а если всетаки хочется получить на него серьезные ответы, то лучше сначала поискать на Яндексе. О протоколе HTTP очень много написано и в достаточно доступной форме.
За ваше здоровье!
Если посетитель пришел не с первой страницы выдачи, то и кликнешь - не поймешь.
Яндекс, видимо, таким образом пытается бороться с теми, кто паразитирует на его сервисе. Проблема в том, что параметр q="целое число" устаревает. Короче, если очень хочется посмотреть эту страницу, то приходится идти на Яндекс за свежим параметром q и вставлять его в URL вручную.
Вот, правильная мысль! Дело за практикой.
Я пользуюсь вот такой функцией
function utf8RawUrlDecode($source) { $decodedStr = ''; $pos = 0; $len = strlen ($source); while ($pos < $len) { $charAt = substr ($source, $pos, 1); if ($charAt == '%') { $pos++; $charAt = substr ($source, $pos, 1); if ($charAt == 'u') { // we got a unicode character $pos++; $unicodeHexVal = substr ($source, $pos, 4); $unicode = hexdec ($unicodeHexVal); $entity = "&#". $unicode . ';'; $decodedStr .= utf8_encode ($entity); $pos += 4; } else { // we have an escaped ascii character $hexVal = substr ($source, $pos, 2); $decodedStr .= chr (hexdec ($hexVal)); $pos += 2; } } else { $decodedStr .= $charAt; $pos++; } } return $decodedStr; }
Пока проблема у меня возникала только с декодированием реферов на последующие (2, 3 и т.д.) страницы выдачи Яндекса. После декодирования URL с этих страниц почему-то получается кодировка KOI-8R, а с первой страницей все нормально.
echo date("d.m.Y", time() + несколько_часов*60*60);
предпочтительней, а
$mydate = mktime(0, 0, 0, date("m"), date("d"), date("Y"), date("H")+1);
по-моему нужно исправить так
echo date("d.m.Y", mktime(date("H")+1, 0, 0, date("m"), date("d"), date("Y")));
ну, а самое оптимальное часы*60*60 умножить в уме один раз, например, для 3 часов
echo date("d.m.Y", time() + 10800);
У меня этот бот, или не бот, регулярно загружает главную страницу. Дальше не идет. Директом никогда не пользовался.
Эти шутники явно хотели привлечь к себе внимание, заинтриговать, иначе придумали какое-нибудь другое название.
Какие у вас есть основания утверждать, что это бан?