Deni, либо вы либо программист неправильно поняли суть кэширования :)
Все должно быть очень просто. Иначе толку от кэша не будет. Я в свое время когда над этим думал, пытался сделать сложно, да только толку от этого оказалось мало. В итоге пришел к следующим выводам:
1. Страницы надо кэшировать полностью, и желательно в БД, чтобы запрос был только один и никаких открываний файлов и прочего.
2. Самый быстрый и надежный метод определения "тухлости" кэша - датчик изменения содержимого - то есть например при редактировании статьи - при сохранении кэш всего сайта обнуляется. Этот вариант конечно слабо подходит для новостных сайтов с большим количеством постоянных изменений, однако при обширной аудитории думается не будет лишним показать даже 30 посетителям версию из кэша - до следующего обновления. Пытаться отслеживать какие страницы конкретно изменились слишком сложно, хотя тут конечно зависит от внутренней структуры движка сайта.
3. Храните лучше не сжатые версии страниц - думается процедура сжатия съест много меньше ресурсов чем чтение двух файлов или запрос к БД, а экономия места на диске бесполезна. Хотя если места много, запросто можно хранить две версии.
Мне кажется вам надо поддерживать сайт еще три месяца, чтобы заработать 150$ и просто закрыть его :-)
Если в вашем Засранске не будет приличного количества онлайн пользователей из вашего города, то сайты будут нужны только компаниям, которые работают не только на ваш город, следовательно перспективы искать заказчиков в вашем городе у вас будут далеко не радужные. Ищите удаленно иначе сворачивайте бизнес :) Опыт поиска клиентов в мухосранске был, знаю не по наслышке. К тому же, в таких городах нереальная оценка стоимости такой работы.
Понятно что тема боян и реклама. Интересно все же другое... Судя по тому, что гугл просит ставить в платных ссылках rel="nofollow" то похоже они не знают и не могут придумать, как же все же определять, платная ссылка или нет, чтобы отсеивать их автоматом :)
Кэширование не спасет отца русской демократии? Помоему в вашем случае, если уже не используете, практически единственный вариант снизить нагрузку при том-же кол-ве запросов. Если уже кэшируется... Тогда все гораздо сложнее... Можно запретить в роботс.тхт большинство поисковых роботов, с поиска которых траф почти нулевой, а лучше оставить только три-четыре робота, самых используемых.
Помоему там явно видно следы рерайта. Уникального текста не видно. Мне кажется, скоро появится много таких сайтов, просто с рерайтом существующих проектов. А что, просто и безгеморно. И докопаться нельзя, текст не похож...
Шоу, которое не интересно смотреть - все постановочное какое-то. Вот за день до этого показывали по НТВ бой Федора Емельяненко с каким-то перцем, за титул чемпиона, вот это был реальный бой, кровь, синяки - все очень натурально :) Так там если удар делают от души, то видно, что если бы попал нокаут был бы реально. А тут - цирк ей-богу :)
Сомневаюсь, что оценка страниц сайта по кликам привязана к аккаунту. Оценка страницы для подбора подходящей рекламы было бы неправильно делать привязанной к конкретному аккаунту, ведь сам код рекламы не привязан к конкретному сайту. Может вам лучше попробовать что-то другое? Бегун, Директ...
Можно попробовать изменить страницы, добавить новые важные теги h1 чтобы робот решил что надо переиндексировать и заново определить подходящую рекламу
Наверное ТС беспокоился за то, чтобы его сайт не забанили автоматически. Думается, что такие случаи проверяются людьми, и ими же банится, а автомат только находит такие моменты. Поэтому если таких как вы пишете нарушений не будет - никто не забанит.
(с) 12 стульев
:D