- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Анализ логов и, например, счетчик RAX дают очень разную картину по ссылающимся поисковым словам. В результате я не знаю чему больше верить. Кто может подтвердить, опровергнуть это? Например по RAXу у меня с поисковых систем пришло 300 человек, а по Sawmill (анализ логов) всего 100. Кому верить?
Я уже думаю не написать ли собственный счетчик. Пришел посетитель. Записал его в MySQL, потом проанализировал.... Вот только сдерживает одно не сильно ли это будет тормозить сервер на каждую открытую страницу делать отдельный INSERT? А если у меня будет 20000 запросов к страницам сайта?
У MySQL есть режим отложенной записи - когда он делает инсерты в периоды меньшей загрузки сервера.
Попробуй.
смените название темы или поставьте запятую
Извините за кривое название темы :( Действительно смешно получилось
Ergo, выход - текстовые файлы.
Быстрее, чем mysql, проверено.
это за сутки?
1000000 запросов в день можно на средненьком двухпроцессорном откручивать при не сильной нагрузке.
AreaFix,
Быстрее, чем mysql, проверено.
Ну тогда это тоже самое что анализ логов :(
да. Дальше надеюсь больше.
Ergo, ну я не соглашусь, что тоже самое.
Логи они большие и страшные, их лучше отключить,
К тому же регекспы далеко не всегда быстрые... при больших
загрузках лучше хранить отработанную к "выдаче" информацию, а в сыром виде только место жрет. Тоесть файлы(каталоги) надо создавать, как названия страниц, айпи и т.п.
Организованные текстовые файлы выход, в двукритериальной задаче-
чтобы не тормозило при открытии,
чтобы не тормозило при генерации отчета.
Если тебе важно только первое и не большие объемы, можно просто оставить включенным лог и его парсить.
Кстати, а если отключить ведение логов вообще, то нагрузка на сервер уменьшится? И еще. Всегда и везде считалось, что работа с MySQL быстрее чем работа с текстовыми файлами. А ты говоришь - наоборот.
Смотря в каком режиме с MySQL работать. Если со стандартными базами - быстрее простого fwrite они однозначно не будут, а вот если поковырять ее собственную файловую систему (не пмню, как называется - а лезть проверять ломает :)) - тут проверять надо.
Кстати, не стоит забывать такую вещь - MySQL бесспорный лидер по скорости простых запросов (select * from table), а вот на инсертах и сложных запросах начинает "сосать" - потому как затачивался именно под простые запросы.
У меня сейчас пара интересных проектов намечается - так я, если честно, ищу альтернативу MySQL :(
PS: А вот на чтении (да еще и с индексами) MySQL однозначно натянет текстовые файлы.
Ergo,
да.
все зависит от контекста задачи. Зачем писать запросы, которые будут мудрено отрабатыватся, если можно сразу ложить информацию как надо.
В данном случае
в текстовиках...
Listener,
а что за файловая система? имеется ввиду организация ключей, записей в файлах?
альтернатива определяется исходя из задачи.
Если у тебя какие-то "сложные" запросы и ограниченные ресурсы, в т.ч. не охото заниматся проектированием для оракла, то тогда в этом случае имхо PostgreSQL, хотя на простых запросах, с малыми объемами, его мускуль опережает.
А как это можно сделать с помощью регулярного выражения ?
Вот например так я отлавливаю кейворды гугля, которые заключены между "q=" И "&" Но так пхп плохо знаю, думаю код корявый :)
<? php
$keyword=$HTTP_REFERER;
$priznak="q=";
$num=strpos($keyword,$priznak);
if ($num>0)
{
$num=$num+strlen($priznak);
$keyword=substr($keyword,$num);
$priznak="&";
$num=strpos($keyword,$priznak);
if ($num>0) {$keyword=substr($keyword,0,$num);}
print "$keyword";
}
?>
Хостинг для бобров (http://www.hqhost.net/?pid=77)