Можно несколько улчшить ситуацию: определится какие поисковики нужны и выложить, к примеру, robots вида:
User-agent: * Disallow: / User-agent: Yandex Disallow: Host: www.site.ru User-agent: StackRambler Disallow: User-agent: Googlebot Disallow:
Облегчить код страниц: вынести css, js во внешние файлы, подключить gzip (не все поисковики поддерживают)
Вобщем надо смотреть по ситуации
Не известно как там движок реализован, по этому нельзя дать однозначный совет, нужно лезть в двиган и разбираться
robots.txt:
User-agent: * Disallow: User-agent: Yandex Disallow: Host: www.ekb.ru
P.S.: прикольный доменьчек), продадите?..
Вариан на PHP:
<? $h=file('mail.txt'); $hx=array_unique($h); sort($hx); $chx=count($hx); for($i=0;$i<$chx;++$i) { echo $hx[$i].'<br>'; } ?>
Читает список из текстового файла и выдает в браузер
<? header('Cache-Control: max-age=XXXX, public'); // Где ХХХ - время в секундах, в течении которого страница должна кешироваться // Например сутки = 86400 ... $nocache=mt_rand(1,1000000); echo ' ... <object type="application/x-shockwave-flash" data="flash.swf?'.$nocache.'" width="385" height="150"> <param name="movie" value="flash.swf?'.$nocache.'" /> </object> ... '; ... ?>
Ребята, скальпирующие выдачу Яндекса с точность до процентов и стартующие топики о лжеапдейтах, поймите, что Яндекс имеет кластерную структуру и выдача его не стабильна. Определенный процент "шума" присутствует как неизбежность.
))) Тогда это эффект обратный - затвор овлекает внимание от вождения)
Хм.. у меня кипер последней версии стоит на двух компах, ip разные, пашет и не выёживается 😕
Может зайти с реферером? для проверки?..
При просмотре проиндексированных страниц, "быстророботные" отмечены как "Х часов назад" и т.п.
В курсе, не спорю, я об этом же