monstring

Рейтинг
43
Регистрация
03.03.2004

Время копирайтера цениться намного ниже чем програмиста, оптимизатора (да и многих других), поэтому обычно при наличии хорошего копирайтера гораздо выгоднее заплатить ему за написание текста, чем тратить на это время других сотрудников.

В гугле уже давно нечто подобное используется для "неоднозначных" запросов.

При изначально заданных условиях - заработать на рекламе будет нереально.

Реально вы можете заработать только на собственных дополнительных платных услугах которые будут рекламироваться на сайте.., так что думайте в этом направлении.

з.ы. когда нужно было пропиариться по высшим учебным заведениям я просто заказал в типографии рекламные листовки (практически бесплатно), за день на моцике обьехал все интересующие места и повесил их рядом с расписаниями на кафедрах (затраты опять же нулевые). Даже если это делать за деньги, это мизирные затраты с большей эфективностью (по сравнению с рекламой на интернет сайте при условии что сама реклама связанна с офлайном).

15000 запросов в сутки с одного ИП - не банит.

скорее всего гуглу не нравятся запросы которые вы пытаетесь смотреть.

alexf2000, так мы на другом форуме и многопоточность обсуждали... ;)

разницы практически никакой, только вместо TCP\IP можно более эфективные для данных целей протоколы использовать.

В принципе snoopckuu все абсолютно правильно сказал.

Единственное что стоит дополнительно заметить, что работа всегда идет не с оригинальными документами, а с результатами их анализа (индексами) и индексами этих индексов. Индекс по определенному параметру, величина ничтожная по сравнению с размером документа. Оригиналы обычно если и сохраняются, то архивируются достаточно эфективными методами чтоб существенно снизить размер.

Каждый сервер обычно хранит собственные данные (наиболее критичные целиком загоняются в память) и методы работы с этими данными. Т.е. грубо говоря быстродействие заключается в том, что за момент пока один сервер обрабатывает индекс по кейворду, второй обработает индекс по тематике, третий по ссылкам, и т.д.

Гораздо проще и быстрее просто выдавать фобиден для поисковых ботов.

Все попытки продвинуть стандарты в области индексации (а предложения добавить МЕТА РОБОТС ноидекс\нофолоу в спецификацию http://ds.internic.net/rfc/rfc2068.txt звучали не раз, успешно проваливались. Так что ищите другие способы. Гугл к примеру позволяет с роботс.тхт много трюков использовать для облегчения жизни.

выяснить програмно именно квоту имхо невозможно, потому что по разному настраивается и иногда это делается вообще через жопу.

stealthy, насколько я понимаю ты хочешь избежать ситуации на виртуалах когда не хватает места для сохранения.

Но, для твоих целей тебе достаточно проверить наличие свободного места для сохранения нового файла.

Элементарная логика: сохраняешь данные в темпорари файл, проверяешь его, если он сохранился нормально перезаписываешь его на место оригинала.

Извращенная логика: Пытаешся сохранить на диске файл размером в Хмб. Проверяешь сколько сумелось записать, если Хмб - все ок. Проверку можно повторить через Н часов. Если меньше... Алерт админу.

Лучше конечно пользоваться первым вариантом, так как это в принципе основы програмирования отказоустойчивых систем.

Ну если неинтересно ничего кроме грубых цифр, то пожалуйста.

Тип сайта: портал.

Тематика: развлечения.

Посетителей: 69,742

Переходов на карту с других страниц сайта: 17.

Большое кол-во пользователей картой сайта, по идее тревожный сигнал с точки зрения юзабилити. Карту обычно используют те, кто знают что хотят найти, но не могут это сделать используя навигацию. Ботов и оптимизаторов изучающих структуру сайта в расчет не берем.

Так что если пользователей картой более 0.01%, надо изучать логи и на основании результатов переделывать менюшки и навигационные элементы.

Всего: 186