- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
MRcron, можно CIDR использовать.
http://ip-calculator.ru/
Вводим Адрес1 - 192.168.0.0, Адрес2 - 192.168.0.255, получаем - 192.168.0.0/24
Да я видел что можно CIDR юзать , но если не трудно реализуй ;) , думаю будет многим полезна такая фича . в место того что бы юзать фаил с размером в 100к строк можно его юзать в 10 строк
Это что надо писать что бы получить файл в 100к строк?! :-/
Это что надо писать что бы получить файл в 100к строк?! :-/
обычный листинг ипов для клоаки .
ro--ot, Сделаешь ? 🍿
Сомневаюсь в целесообразности.
Сотни (тысячи) регулярок в текстовом файле ... и это для каждого посетителя.
Нагрузка будет не кислая 😡
Подскажите, как направить не уника на третий\замыкающий поток?
trapni, нужно создать третий поток вот с такими настройками:
В первых двух потоках Не уникальные посетители - Исключать, в третьем - Отбирать.
trapni, нужно создать третий поток вот с такими настройками:
В первых двух потоках Не уникальные посетители - Исключать, в третьем - Отбирать.
Спасибо! Буду пробовать :)
ro--ot, вопрос про "Срок уникальности", который в часах.
Если я захочу поставить 30 дней (=720 h) - как думаете, не просядет производительность?
Логи за месяц при посещасемости 2-3k в сутки составляют порядка 25-30мб. Как я понимаю, при такой настройке весь месячный лог будет сканироваться через запросы к SQLite.
Что-то у меня сразу работает все некоторое время, а потом начинает всех подряд кидать в замыкающий аут... уже несколько раз удалял и ставил обратно все и постоянно одно и тоже.
Проблема оказалась в этой опции: "Если IP есть в списке", у меня было установлено "исключать", видимо надо поставить "отбирать" ))