Шутник однако:
4/10 или 5/10 в зависимости от того ближе ли твои 6/10 к 5/10 или 7/10.
Я не знаю, где Вы нашли таких физиков и математиков, но в нашей стране :) учёные пользуются т.н. научной записью чисел.
Числа 7+E02 и 7+E03 отличаются на порядок, а не являются числами одного порядка. Как только произойдёт попытка нажулить, и заявить, что 7+E02 есть 0.7+E03, я скажу, что сравнивать надо с 0.7+E04.
Если вспомнить, что физики очень любят округлять, то я пожалуй соглашусь, что 0.5+E02 и 1+E02 - числа одного порядка. Но это разница в 2 раза, но никак не в 10.
Скажу обтекаемо - на моём сайте имеются страницы и с большим количеством ссылок. Санкций пока не применялось. Но я уже начинаю думать о применении META для запрета индексирования этих страниц. Разрешу только проход по ссылкам.
6 рублей - уже можно начинать думать. Но с 5-ю рублями думается веселее :)
Ради эксперимента поискал (в Яндексе :)) цены на банеры 100х100. Первая попавшаясь сеть предлагает 1000 показов за 20 центов. При CTR 0.1% (а его Вы предложили :)) получается как раз 6 рублей за клик. К слову, та же БС предлагает клики по цене 7.5 рублей за клик при покупке 500 кликов, больше - со скидкой. Если верить статистике, худо бедно за сутки 5К посетителей они дать способны. Реклама на Народе ничем не отличается. Вот я и думаю: брать зонтик или не брать зонтик.
wolf, я понял к чему ты клонишь :) Есс-но если робот на момент визита знает только 30 страниц, то 100 он уже никак не заберёт. Максимум с моего сайта забирал Рамблер в период тотального обновления базы ок. 700 документов. Я логически продлил до 1000 - ближайшее круглое число. А вот что физики считают 700 и 7000 числами одного порядка - для меня новость.
Поскольку про клики больше всех кричал я, то высскажусь :)
12 рублей за клик - дорого. Посетитель дюже нецелевой будет. Да ещё и с рисованием банеров заморачиваться.
Смотря для кого или чего :)
Для пользователя разумно 10-15 ссылок (поисковики по столько на страницу и выдают). Для поисковиков - по разному. У меня до 100 ссылок на страницу выдаётся - холвеи очень дорвеистыми получились :).
А вот чужие ссылки я бы не рекомендовал в таких количествах кучковать - многовато.
Давайте начнём танцевать от печки. Несколько десятков тысяч страниц ни один пользователь в жизни обходить не будет. К тому же, динамически получаемые из базы. Рекомендую поискать на форуме термин "автоматически сгенерированный контент" и обратить внимание на то, что за это бывает.
Дальше, задумаемся над тем, сколько страниц предстоит обойти поисковику, чтобы просто собрать эти несколько десятков тысяч URL.
За один проход поисковики собирают порядка 100 документов (для забывших математику напоминаю, что числа в диапазоне от 100 до 999 имеют один и тот же порядок :)). Т.е. для индексации 10К страниц понадобится не менее 10 визитов роботов, и это при условии, что в промежутках между визитами документы не изменялись. Далее, учитываем, что Google и Апорт обходят документы в порядке убывания их PR. У Апорта есть квоты на число индексируемых страниц в зависимости от ИЦ сайта. Скорее всего так же поступает и Яндекс (я про приоритет, а не квоты). Про Рамблер такого утверждать не буду, но и у него наверняка есть какой-то критерий важности, в соответствии с которым он упорядочивает обход. Вероятно это посещаемость. Ну и заглавные страницы счётчика топ100 он обходит чаще.
Итого, делаем вывод, что при огромном количестве страниц на сайте всегда будут находится документы, которые либо не будут индексироваться, либо будут переиндексироваться черезвычайно редко. Так что первый совет - уменьшить число страниц раз в 10.
Попутно замечу, что число проиндексированных страниц в Яндексе удобнее проверять так
Далее, чтобы улучшить "обходимость" сайта нужно создавать карту сайта.
Чтобы у робота была возможность получить список уникальных url сайта без дополнительных телодвижений. Карту логично рабивать на разделы, и на каждой странице выводить разумное число URL.
Самый простой - при остутствии реферера выдавать 404.
Чуть сложнее - проверять UserAgent, и поступать также.
Если подумать ещё чуть-чуть, то можно вообще избавиться от параметров в ссылках. В подробности вдаваться не буду - ход мысли понятен, остальное - маленькое ноу-хау :). (Да и на конференции что-то относительно новое докладать надо :))
Я бы за такие фокусы банил :D
RodionV, почитай о connection pool. Совсем не обязательно использовать сессии для хранения коннекции.
При том, что браузер на каждом шагу не закачивает .css файл. То же относится и к жабным скриптам в отдельном файле. Другое дело, что 19К - это явный перебор. А вот использование любых визуальных редакторов - это уже выше моего понимания :)