Михаил

Михаил
Рейтинг
190
Регистрация
02.03.2007
Должность
Москва
Интересы
3D-графика и анимация, компьютерная графика, интернет-реклама, SEO, PHP-программирование
Родился по заданию разведцентра
montr1 #:

Зачем распыляться и тратить свое время на очередой велосипед, когда уже созданы готовые решения: антибот клауд, ботфактор, ботгуард и многие другие...

Одно из лучших (известных мне) готовых решений, правда, в другой сфере – youtube. Комментарии нужны?

P. S. Да, кстати, и о самих велосипедах: в этой области тоже имеется масса готовых решений. Но доступны в РФ теперь не только лишь все.

Pyro22 :
Друзья, подскажите, есть какая-то техническая возможность не давать таким сайтам подгружать как минимум изображения с моего сайта?

Есть

Hatta #:

Предлагаю оживить тему в свете событий с cloudlfare.

Кто как фильтрует ботов без cf?

Собственный серверный механизм. Пока в обкатке базовые алгоритмы «Легионер», «Дятел», «Носорог», «Фантомас», «Рецидивист» – помогают при фильтрации примитивных ботов и краулеров (монстры типа «Битерики» – в чёрный список на первом шаге и соответственно последующая фильтрация их уже не касается). Фильтрация многоступенчатая: разовая блокировка за нарушение директивы, при нарушении набора директив за интервал времени – профилактическая блокировка на короткий период времени, при накоплении нескольких кратковременных блокировок – временная блокировка на сутки, плюс журнал «активистов» на анализ. Особо отличившиеся – в кают-компанию к «Битерике».

novenkii202309 #:

Сори, имел ввиду в вопросе именно пф ботов с работающим js, обходящих капчу, которых и метрика не всегда различает от реальных людей. Краулеры, которые просто массово сканируют страницы курлом и так  блокируются системой сайтов уже лет этак 10, с ними, думаю, и так все понятно. Речь о тех ботах, которых можно отличить разве что по действиям в вебвизоре. 

Тогда этот способ – применяется, как я заметил, повсеместно, в самых разнообразных разновидностях – всплывающие сообщения о скидках, акциях, использовании куков и персональных данных, а конечная цель одна и та же: «закроет или не закроет? бот или человек?». Раньше раздражало, а потом понял, зачем это делают, и сам стал так делать. Умение юзать JS боту тут не поможет, тут нужно переключаться с визора Хищника на человеческий взор, а с этим они пока не справляются. Но с использованием этого метода – вы уже пустили гостя в ядро, так что очевидное решение – скрыть от него Метрику. Ну ещё можно, конечно, забабахать для таких гостей принудительную задержку выдачи страниц секунд на десять, и всё было бы прекрасно, когда эти гости лезли бы на сайт последовательно, а не в многопоточном режиме. 

novenkii202309 :

Все же блокировать или продолжать скрывать метрику от них?

Ну вот смотрите: предположим, заходит к вам бот какого-то британского образовательного учреждения в поисках материала, который могли сплагиатить у вас тамошние студенты для своих дипломных работ. Причём не просто заходит, а сканирует ваш сайт сверху донизу с частотой 3-5 запросов в секунду. Можно, конечно, скрыть от него метрику – но смысл вообще пускать его к ядру сайта? Это же во всех движках – куча процедур для показа страниц с контентом, смысл грузить сервер? «Чао, бамбино, сорри» на первом шаге с выдачей кода заголовка 404 и жёсткое прерывание всех последующих процедур, всё.

И другой вариант: опять бот, но на сей раз предположительно, потому как с подсети, откуда мог бы и живой чатланин пожаловать. Запросы с интервалом в три-пять секунд. Да ещё и потенциально полезный (ну скажем, applebot, или mail.ru, или chatgpt, мало ли, вдруг они инфу для поисковой выдачи собирают, ох, сейчас Алаев на меня ругаться будет за такие заявления, ну да ладно). Вот тут уже можно и к ядру, осторожненько и без Метрики.

Короче, это вопрос из серии – на метро или на машине? Да смотря куда ехать.

Только оговорюсь, делать это htaccess'ом – так себе идея. Блокировка ИМХО должна работать динамически, по алгоритмам. У меня, к примеру, если бот последовательно в течение некоего периода времени сначала шлёт запросы 3 раза в секунду, затем пошёл сканировать URL типа /сайт/wp-content/dropdown.php, затем полез в cgi-bin или принялся искать сертификаты – автоматически влетает в бан уже на период времени из профилактических соображений. Кстати, помогает – часть незваных гостей на этом этапе отваливается на недельку, на месяц или вообще больше не возвращается.

рецидивист :

Приветствую.

Разыскиваю фотки разных автомобилей с одного ракурса и одного цвета. Встречал кто-нибудь такое в сети? 

100% надёжный способ: скачиваем (как правило, покупаем, но возможны варианты) нужную 3D-модель автомобиля, загружаем во что-нибудь типа Maxon Cinema 4D (3D Max, Blender, LightWave и т. п.), окрашиваем внешние элементы (кузов, стойки, бампера) в нужный цвет, рендерим. При наличии минимальных навыков и наличии под рукой нужной модели – делов на час-два (в зависимости от детализации модели). Плюсы – возможность идеальной подгонки ракурсов, цвета элементов, освещения. Прошу прощения, что не совсем в тему, но как запасной и довольно эффективный способ, когда нужна математически точная подгонка автопарка под стандарты.

P. S. Ещё Pinterest с ходу вспомнился, но тут уж как повезёт.

P. P. S. Способ, тоже основанный на 3D, но чуть попроще: на некоторых 3D-стоках многие модели представлены в объёмном виде – их можно крутить туды-сюды, чтобы разглядывать с разных сторон. Не покупая модель, прокручиваем её превью до нужного ракурса, скриншотим, корректируем цвет кузова в Photoshop. Просто как вариант.

ArbNet #:

Нет, не актуально. Маск наделал кучу спутников, а толку почти нуль, как шпионы разведчики если только.

А по большому счёту проводная связь и сотовая сейчас на уровне с высокой скоростью проводимости. Так что все эти железные летающие транзисторы нужны только в качестве передачи сигнала с одной стороны планеты на другую, с континента на континент и то уже кабели по дну морей, океанов проложили.

Кроме того если на спутниках, дронах делать хранилища информации, то это очень дорогое удовольствие будет, потребление энергии и обслуживание всего этого хозяйства с тысячами аппаратов..

Так в том-то и прелесть концепции у Лема, что в качестве хранилища информации выступал не каждый элемент, а исключительно их совокупность (в каком минимальном количестве, умалчивается). Сам по себе каждый элемент хранил, говоря современным языком, несколько бит, и при этом был полностью взаимозаменяемым с другими элементами, а в совокупности они хранили огромный объём данных, и уничтожение не то что одного, но даже тысячи элементов – работоспособность архитектуры не нарушало: место уничтоженных элементов просто занимали другие, и всё. Для уничтожения хранимой информации, по всей вероятности, следовало бы уничтожить как минимум 75% элементов, что с учётом их тактики рассеивания в случае критической опасности было практически невозможно. Та самая децентрализация, в противовес более сложным и централизованно мыслящим устройствам, которым Туча вынуждена была противостоять. Я помню о том, что это всего-навсего вымысел польского фантаста, но изящество схемы подкупает. А вообще лучше прочитать первоисточник, там есть над чем подумать. Тем более что ситуация по нынешним временам схожая.

ArbNet #:

Да, именно эту идею я и взял в основу. Вот только у торрентов есть минус в том что им нужен трекер(сервер где собираются сиды и пиры, раздающие и подключившиеся к тому или иному торренту). А если этот трекер\сервер накроется, то соединений не будет.

Станислав Лем, помнится, ещё много лет назад описал эту проблему в «Непобедимом». Обитатели некросферы из его произведения не имеют никаких центров управления, это своего рода «летающие элементарные транзисторы». Не было у них там ни трекера, ни сервера, а были тучи металлических частиц, само существование которых было критерием хранения информации. Занятно, сколь пророческим оказалось произведение. Детально архитектура хранения информации в повести, увы, не описана – а вот схема в нынешних условиях представляется исключительно актуальной.

Бегло ознакомившись с дискуссией, как вы думаете, что сразу же вспомнил?

Торренты, конечно же. Та самая децентрализованная система.

Это к чему. Пришла в голову такая схема. Представим себе, что появился идеальный поисковый механизм, который всех устраивает (я понимаю, что это что-то из области сферического коня в вакууме, и всё же). С учётом пройденных человечеством граблей – такой алгоритм следовало бы сразу же скопировать во множество узлов, с тем чтобы, будучи скорректированным в одном узле, он оставался бы прежним в остальных, пока все владельцы этих узлов не «проголосуют» за внесённую корректировку. А пока не проголосуют – внесённая корректировка никак не влияет на механизм поиска и тот игнорирует скорректированную в данном узле копию алгоритма, продолжая опираться на директивы канонических экземпляров. Элементами кластерной системы для обработки поисковых запросов в этом случае были бы мощности узловых (домашних и рабочих) компьютеров. Не спорю, чем-то напоминает github с его форками, есть что-то от многочисленных «койнов», да и вообще, возможно, наивные рассуждения – но мало ли, вдруг кого-нибудь наведёт на какие-нибудь мысли.

alek2009ershv82 #:

Уже кто только не писал про это. Им вообще......

«Что же это за странности с англоязычной выдачей российской поисковой системы?!» – недоуменно крутилось у него в голове, пока он поудобнее усаживался за руль российского внедорожника «Patriot»...

Всего: 522