Время копирайтера цениться намного ниже чем програмиста, оптимизатора (да и многих других), поэтому обычно при наличии хорошего копирайтера гораздо выгоднее заплатить ему за написание текста, чем тратить на это время других сотрудников.
В гугле уже давно нечто подобное используется для "неоднозначных" запросов.
При изначально заданных условиях - заработать на рекламе будет нереально.
Реально вы можете заработать только на собственных дополнительных платных услугах которые будут рекламироваться на сайте.., так что думайте в этом направлении.
з.ы. когда нужно было пропиариться по высшим учебным заведениям я просто заказал в типографии рекламные листовки (практически бесплатно), за день на моцике обьехал все интересующие места и повесил их рядом с расписаниями на кафедрах (затраты опять же нулевые). Даже если это делать за деньги, это мизирные затраты с большей эфективностью (по сравнению с рекламой на интернет сайте при условии что сама реклама связанна с офлайном).
15000 запросов в сутки с одного ИП - не банит.
скорее всего гуглу не нравятся запросы которые вы пытаетесь смотреть.
alexf2000, так мы на другом форуме и многопоточность обсуждали... ;)
разницы практически никакой, только вместо TCP\IP можно более эфективные для данных целей протоколы использовать.
В принципе snoopckuu все абсолютно правильно сказал.
Единственное что стоит дополнительно заметить, что работа всегда идет не с оригинальными документами, а с результатами их анализа (индексами) и индексами этих индексов. Индекс по определенному параметру, величина ничтожная по сравнению с размером документа. Оригиналы обычно если и сохраняются, то архивируются достаточно эфективными методами чтоб существенно снизить размер.
Каждый сервер обычно хранит собственные данные (наиболее критичные целиком загоняются в память) и методы работы с этими данными. Т.е. грубо говоря быстродействие заключается в том, что за момент пока один сервер обрабатывает индекс по кейворду, второй обработает индекс по тематике, третий по ссылкам, и т.д.
Гораздо проще и быстрее просто выдавать фобиден для поисковых ботов.
Все попытки продвинуть стандарты в области индексации (а предложения добавить МЕТА РОБОТС ноидекс\нофолоу в спецификацию http://ds.internic.net/rfc/rfc2068.txt звучали не раз, успешно проваливались. Так что ищите другие способы. Гугл к примеру позволяет с роботс.тхт много трюков использовать для облегчения жизни.
выяснить програмно именно квоту имхо невозможно, потому что по разному настраивается и иногда это делается вообще через жопу.
stealthy, насколько я понимаю ты хочешь избежать ситуации на виртуалах когда не хватает места для сохранения.
Но, для твоих целей тебе достаточно проверить наличие свободного места для сохранения нового файла.
Элементарная логика: сохраняешь данные в темпорари файл, проверяешь его, если он сохранился нормально перезаписываешь его на место оригинала.
Извращенная логика: Пытаешся сохранить на диске файл размером в Хмб. Проверяешь сколько сумелось записать, если Хмб - все ок. Проверку можно повторить через Н часов. Если меньше... Алерт админу.
Лучше конечно пользоваться первым вариантом, так как это в принципе основы програмирования отказоустойчивых систем.
Ну если неинтересно ничего кроме грубых цифр, то пожалуйста.
Тип сайта: портал.
Тематика: развлечения.
Посетителей: 69,742
Переходов на карту с других страниц сайта: 17.
Большое кол-во пользователей картой сайта, по идее тревожный сигнал с точки зрения юзабилити. Карту обычно используют те, кто знают что хотят найти, но не могут это сделать используя навигацию. Ботов и оптимизаторов изучающих структуру сайта в расчет не берем.
Так что если пользователей картой более 0.01%, надо изучать логи и на основании результатов переделывать менюшки и навигационные элементы.