k-os

Рейтинг
56
Регистрация
19.11.2005
DmitryShustov:
$query = "SELECT count(DISTINCT ip) AS daycount FROM stats WHERE time >= $dt1 and time <= $dt2";

тут $dt1, $dt2 - время в юних формате

$result = @MQ($query) or die("$query <b>failed!</b><br>".mysql_error());
$darray = mysql_fetch_array($result);
echo 'всего ip -'.$day_array[daycount];

ну вот что тут может быть неправильно?
Считаю я сумму разных айпишников за день.

ну кроме того что в строке

echo 'всего ip -'.$day_array[daycount];

нужно $day_array[daycount] заменить на $darray["daycount"], остальное должно работать

Я так подозреваю что сервис сделан не на основе яндекс XML :) Вот интересная цитата из FAQ Яндекса:


Могу ли я установить на сайте скрипт "узнай свое место в выдаче"?

Конечно, если ваш сервис будет некоммерческим. При проверке позиций ваш скрипт может задавать до 200 запросов в сутки. Если вы хотите брать деньги за услугу, либо обрабатывать большее число запросов, вы можете задавать XML-запросы на платной основе.

Так вот мне интересно, что яндекс и другие поисковики делают с такими сайтами, которые парсят результаты поиска..у меня у самого есть сайт на основе ramblera.. и пока никаких замечаний от них не получал :)

Я ничего нового не придумал, на странице яндекса приведен код файла robots.txt с использованием SSI..


<!--#if expr=" \"${HTTP_HOST}\" != \"www.главное_имя.ru\" " -->
User-Agent: *
Disallow: /
<!--#endif -->

Там написано:


Проверить результат можно, просто запросив страницы:
http://www.главное_имя.ru/robots.txt
http://www.другое_имя.ru/robots.txt
и т.д. Результаты должны быть разные.

Но с SSI у меня почему-то не работало, поэтому я сделал c rewrite..тот же результат..

Seventh Son:
- это, конечно, круто, учитывая то, что файл должен обзываться robots.txt :)

Ну те кто разбираются поняли, что я имел в виду...

У меня вообще яндекс решил что сайт нужно индексировать c www. Хотя на сайте стоят абсолютные ссылки без www, и все внешние ссылки стоят без www и ИЦ сайта без www был больше 100..А теперь захожу в тулбаре 0, и по ключевым сайт вылетел..Вобщем молодцы :)

Недавно столкнулся с этой проблемой, нашёл решение с использованием mod_rewrite:

1. Сделал файл robots.php c таким содержанием:


<?
if (stristr($_SERVER['HTTP_HOST'],'www.имя_сайта.ru'))
{
print "User-agent: *\r\nDisallow: /";
}
else
{
print "User-agent: *\r\nDisallow: /admin/";
}
?>

Здесь главным выбрано зеркало без префикса www.

2. Прописал в htaccess такую дерективу:


RewriteRule ^robots.txt robots.php [L]

Теперь сайт с www запрещается для индексации, а без www нет..

Всего: 166