Dinozavr

Рейтинг
153
Регистрация
14.01.2007
Zikam.RU:
Европейские коровы - это всего лишь средство производства дорогостоящего товара

европейские коровы - это средство сохранить рабочие места.

как и немецкая "угледобывающая" промышленность. недавно подсчитали, что если шахтёров отпустить домой и платить им зарплату "за так", то это будет дешевле чем сейчас, когда государство делает субсидии в каждый кг угля. зато в статистике безработицы небольшой плюс...

более менее точно не подсчитаешь. предположим у вас в логах 1 айпи. но если это айпи гугл ридера, то и читалей у вас может быть неограниченное кол-во

progress:
Количество соединений здесь не причем. Куку ставите на какой путь? Укажите ей путь "/" чтоб охватила весь домен

кука так и стоит

Dreammaker:
Если кука сессионная, то возможен вариант, что есть проблемы с темповой директорией для хранения сессионных файлов. Например, неправильно, права описаны, или указана в настройках не существующая папка..

А так как это я так понимаю рабочий хостинг (/сервер), то вывод ошибок скорее всего отключён..

я наверно неправильно выразился. Автологин работает, но не всегда. т.е. может дня 2 пускать, а потом нет. хотя обновляется кука кажется каждый день

это к сожалению далеко не робот. так, игрушка на пульте управления

+ сами сайты должны быть одинаковыми (количество страниц, перелинковка). или я не прав?

эт уже даже не баян... это уже гусли :)

Vitalijj:
как это реализовано?

книга отдаётся скриптом + скрипт защищён через .htaccess (юзверь правда всегда один...)

такая защита тоже не сработает против тех, кто ОЧЕНь хочет скачать все книги за раз.

raspberry:
matsker, стало понятнее, спасибо.
Но вот мне, как болндинке-юзверьку, неприятно, что Вебальта пасет мои запросы и сует их в себя. Как от этого повышенного внимания избавиться?

1. "уговорить" експлорер(или фокса или...) не посылать рефферер

2. брать печенья только от знакомых дяденек, в смысле принимать кукисы только от сайтов, которым вы доверяете

Morix:
Спасибо большое! Только можно пожалуйста весь php код, чтобы брал урлы из urls.txt? Я в php слабак.

quick and dirty:

function checkHttp200Ok($url)
{
$a = get_headers($url);
foreach($a as $k => $v)
{
if (strpos($v, "200 OK"))
return "ok";
}
return "NOT OK!!!";
}
$all_urls = file("$url.txt");
foreach ($all_urls as $url)
{
print $url." ".checkHttp200Ok($url);
}
Vitalijj:
написанный на html в полной и беспробудной статике

если так и останется, то перспективы не очень...

Всего: 1286