что может быть проще. просто в момент добавления фотки, сразу создавать итоговый файл с тегами и прочим
Hubba_Bubba,
Тогда увеличьте таймаут подключения (я стараюсь не писать на пыхе, поэтому точно не скажу как). Скорее всего при создании соединения один из параметров именно таймаут.
ЗЫ один файл или несколько файлов - штука разная. выложите код подключения и отправки. Чудес ведь не бывает.
что-то не так. Если CMS файловая и картинки лежат в папках, то скорость не может зависеть от количества фоток.
Видать проблема в
где тэги хранятся, как кешируются?
это не искажение. Скорее всего число передается в том виде, как оно хранится в памяти, поэтому и беда...
передавайте число как текст, а на приемнике из текста опять получайте число
зависит от того, как много спам баз Вы готовы анализировать и насколько мощный сервер, чтобы с этим всем справится.
В любом случае, все сводится к таким вещам.
1. IP нужен только для отсечения заведомого спама....
2. Куки анализируются, в идеале, 2 раза. на сервере, в запросе и в JS у клиента, ведь реклама а Вашем случае будет выводится именно средствами JS, а ля Direct.
3. по результатам час/суток/месяца нужно проводить перерасчет по выявленным случаям накрутки.
4. Полезную информацию о накрутчиках может дать реферер (откуда юзер попал на сайт).
Pan4eZzz,
Вам же уже все ответили.. Или очень нравится чтобы разжевывали...
Делайте шаблон нормально и все будет ок
Есть такая система защиты от накрутки:
1. проверяем есть наши куки или нет.. Если есть, проверяем по связке куки + IP кликал или нет. соответсвенно, считаем это за переход или нет (переход по рекламе в любом случае обязателен, чтобы накрутчики не могли отличить)
2. если кука нет выполняется релод страницы с выставлением ему кука. Куки имеют связь с IP хотя-бы на уровне первых цыфр (так можно будет отслеживать подозрительных). Если и при повторе куки не принялись - значит пришел робот или простые наркрутчики. Куки выставляются с временем жизни, допустим 2-3 года.
3. Допустим, 1 раз в сутки проверяем IP откуда ходили на предмет анонимных сокс и прокси серверов. Естественно, отбрасываем из расчета таких. Дополнительная информация, если часто с каких-то IP ходят без куков, значит адрес подозрительный.
Давайте какнить мухи отдельно. печенье отдельно.
Речь идет о шаблонах или, пусть и массовых, но очень кривых CMS?
Сам шаблон, если он сверстан без ошибок, ничем не может выдать CMS. (если конечно в нем нет кучи г..на ими подставленных)
определение CMS на 99% специфических папок и файлов (именно поэтому, если все правильно настроить, всякие определялки ошибаются)
санкции за CMS, надеюсь только пока, штука мало вероятная и больше является "почти случайным совпадением".
и что. отменная была игрушка, как и реталятор. Только какое отношение имеет хорошо написанный софт к теме, где введены ограничения, оправдать которые, на мой взгляд - нереально (естественно с точки зрения логики).
перестаньте, какое имеет отношение системное ограничение в конкретном случае? Вы их можете назвать. Здесь, на лицо, либо лень либо очень ограниченные знания верстальщика/прогера.
Тем более, если говорить о визуализации в веб приложении. Ведь вы прекрасно знаете, что никаких отличий (с точки зрения визуализации) у всех массовых броузеров нет.
http://help.yandex.ru/search/?id=481938
Или нужно было разжовывать, что речь идет именно для массовых анонимных (вобще-то считал что здесь люди понимают о чем речь)
maloi86,
1. странна тема для этого раздела форума.
2. у вас как настроен IPX на машинах, как независимый интерфейс или IPXoverTCP