ну кроме того что в строке
echo 'всего ip -'.$day_array[daycount];
нужно $day_array[daycount] заменить на $darray["daycount"], остальное должно работать
Я так подозреваю что сервис сделан не на основе яндекс XML :) Вот интересная цитата из FAQ Яндекса:
Так вот мне интересно, что яндекс и другие поисковики делают с такими сайтами, которые парсят результаты поиска..у меня у самого есть сайт на основе ramblera.. и пока никаких замечаний от них не получал :)
Я ничего нового не придумал, на странице яндекса приведен код файла robots.txt с использованием SSI..
<!--#if expr=" \"${HTTP_HOST}\" != \"www.главное_имя.ru\" " --> User-Agent: * Disallow: / <!--#endif -->
Там написано:
Но с SSI у меня почему-то не работало, поэтому я сделал c rewrite..тот же результат..
Ну те кто разбираются поняли, что я имел в виду...
У меня вообще яндекс решил что сайт нужно индексировать c www. Хотя на сайте стоят абсолютные ссылки без www, и все внешние ссылки стоят без www и ИЦ сайта без www был больше 100..А теперь захожу в тулбаре 0, и по ключевым сайт вылетел..Вобщем молодцы :)
Недавно столкнулся с этой проблемой, нашёл решение с использованием mod_rewrite:
1. Сделал файл robots.php c таким содержанием:
<? if (stristr($_SERVER['HTTP_HOST'],'www.имя_сайта.ru')) { print "User-agent: *\r\nDisallow: /"; } else { print "User-agent: *\r\nDisallow: /admin/"; } ?>
Здесь главным выбрано зеркало без префикса www.
2. Прописал в htaccess такую дерективу:
RewriteRule ^robots.txt robots.php [L]
Теперь сайт с www запрещается для индексации, а без www нет..