- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Даже если сайт уже сохранён?
можно запрос отправить - удаляют, но есть еще платные версии
но тут мы скатываемся к обсуждению, что типа и двери стальные от домкрата не спасут, и противоугонка - ровно на 10 минут занятия для профессионала.
кстати, побанил всех ру г-хостеров по подсетям и бурж. облачным сервисы, ни один парсер статейки по 30-50 кило просмотров за последние пару месяцев не скачал. Понятно, что от школоты только, но тоже неплохо.
один минус - около 1000 строк в .htaccess
а если сделать отдельным файлом и вызывать с помощью кода
IP в строке и параметр -1 к примеру , так не понял как указывать в таком файле примечания - а это важно (хостер, AS, чей и т.д)
PS: антибот просьба не предлагать, так как они не по сайтам парсят, а конкретно трафиковые статьи в топе по ВС и СЧ запросам.
Около 1000 строк в htaccess это дикое замедление сайта, что негативно скажется в ранжировании и эффект от этого может быть противоположный одиданию
Около 1000 строк в htaccess это дикое замедление сайта
На основании чего сделан такой вывод?
этот файл читается при каждом запросе к серверу. Если у вас к примеру при загрузке страницы подключается 5 файлов стилей, 4 js и 20 картинок, то на такое открытие будет 30 чтений файла .htaccess и не всегда юникс его будет держать в кэше, особенно когда он такой большой.
И его не только нужно прочитать, но и обработать все правила в нем, пройдя 100500 циклов этих регулярок.
Около 1000 строк в htaccess это дикое замедление сайта, что негативно скажется в ранжировании и эффект от этого может быть противоположный одиданию
да я в курсе, это просто была рабочая модель, на бурж оставлю только зарубежных, а их не так много, как ру- и укр
или реализую через отдельный файл с параметрами IP -1 на каждой строчке, а в htaccess будет 1 общая команда
да я в курсе, это просто была рабочая модель, на бурж оставлю только зарубежных, а их не так много, как ру- и укр
или реализую через отдельный файл с параметрами IP -1 на каждой строчке, а в htaccess будет 1 общая команда
Если у вас не самопис, а популярная CMS - посмотрите в сторону дополнительных компонентов брэндмауэров, они как правило уже имеют базовые настройки и фильтры для отсекания зарубежных ботов.
типа all in one seo для WP Блокировщик вредных ботов? - так там гуано
Если WP, то можно посмотреть здесь. Насчёт того или иного компонента для WP я ничего не скажу, я сам работаю с Joomla-ой и меня вполне удовлетворяет RSFirewall.
Какой из них гуано, а какой нет тоже комментировать не берусь, познакомиться с функциональностью в любом случае будет нелишним, а там уже конечно каждый выбирает для себя.