Алеандр

Алеандр
Рейтинг
211
Регистрация
08.12.2010
141c18
Андрей #:

Бред полнейший.
1-й уровень это ДО сервера

Бред полнейший - это ваш ответ. Что значит ДО сервера? На роутере? Какой у вас есть доступ к этим вариантам на хостинге? При чем тут ддос, вы читать не умеете? Я вам черными буквами по белому написал, что это не относится к защите от ддос, но максимально эффективно помогает от сканеров, ботов и кучи сумасшедшего мусора, который сканит все, что попало, знатно нагружая ресурсы сервера и выгребая лимиты по cpu/mysql на хостингах. У меня нет проблем с ддос, этим озабочены сами хостеры, а вот с огромным количеством спамящих ip - да. И это решение на 100% закрывает проблему такого спама на сайт.

Оба отрабатываются апачем.

Ага, только апач может на один запуск php скрипта отдать 100 ответов 403 под контролем htaccess, затратив при этом ноль учитываемого хостингом процессорного времени. И там, где 100 запросов в минуту нагрузят сайт, а то и превысят нагрузку, заблокированные 403 не поднимут нагрузку вообще.
Aisamiery #:

htaccess это самое что ни на есть сомнительное решение =)) если хочется что то такое, то лучше писать в лог на который натравлен fail2ban чтоб он автоматом вносил в iptables и до вэб сервера даже не доходили запросы

Расскажите, как вам поможет fail2ban и iptables на хостинге. И откуда у вас возьмется доступ к ним.
Андрей #:

Если запрос дошел до PHP, то уже поздно что-то делать. Просто количеством запросом положат, даже если нагрузка будет нулевой при вашей защите.
То есть, поздно защищать. Защита должна быть как минимум на 1 уровень ранее, а лучше еще раньше.

Самая простая защита на php - это отлавливание паразитного или избыточного трафика и заброс флудящего ip в бан через htaccess (тот самый -1 уровень). Вполне себе рабочая реализация, я себе в свое время такую писал, отлично справлялась. Потом поменял на скрипты, которые анализируют лог, вычисляют слишком частые запросы, запросы по шаблону, возможные get с поиском инъекций и т.д. И точно так же баню через htaccess. Это, конечно, не защита от ddos, зато работает даже на не самых быстрых хостингах  и сильно спасает от превышения нагрузки, флуда и прочего мусора.

Это вам к тем компаниям, которые предоставляют услуги книгоиздателям. У них и софт, который ищет все вхождения и наименования и сразу абузы рассылает и все остальное.
FuRReX #:

Очевидно, жалоба была отправлена по ключевому запросу из поиска, скорее всего, 4-5 лет назад был прогон парсером в поиске, и ссылка туда попала, почему жалоба пришла только пару дней назад, неизвестно.
У меня статья имеет одноименное название с фильмом, на который была жалоба, но там не фильм, а совершенно другой контент.
Вывод такой, что при принятии каких-либо решений по жалобе в гугле, они даже не смотрят её суть, на что и почему.

Все так и есть. У меня ровно так же прилетали жалобы на материалы, которые не содержат спорного контента и вся их проблема лишь в том, что на странице упоминается ключевое словосочетания наименования фильма или спектакля, которые они "защищают". Гугл при этом не разбирается вообще, есть там что-то или нет, просто лепит нарушение в автоматическом режиме без проверки и все.

Любой язык программирования. Простой скрипт чтения файла и поиска в нем вхождения из списка. Прогнали значение, перешли к следующему.
Можно даже bash, используя утилиту replace. Я, в основном, вручную замены прям в файлах с ее помощью и выполняю. Ну или всякими sed/awk в цикле.

Можно даже не скрипт, а взять вот эти строки

asdecd = djfjdj

превратить их в том же notepad++ через регэксп в

replace 'asdecd' 'djfjdj' -- file.csv
replace 'mvjfkf' 'cmkd' -- file.csv
replace 'mcfk' 'cmdmd' -- file.csv

и выполнить. И всех вопросов.

TonyBlackberry #:

Они не присваивают информацию, а просто без разрешения её используют. Те редакции, которые сами пишут свои статьи и готовые запретить использование их труда в быстрых ответах, могут легко доказать, что их текст авторский. Особенно с учетом того, что в быстрых ответах просто нарезаны куски текстов с разных сайтов. А по некоторым запросам текст взят лишь с одного сайта. 

Могу только еще раз повториться: я уверен, что вы на практике не сможете ничего вразумительного добиться за незначительное цитирование в виде пары предложений с вашего сайта, даже если вы перед этим заморочитесь и в суде, дополнительно, докажете авторство вашего текста. Это всего лишь цитирование.

Право на цитирование
Любые произведения науки, литературы и искусства, в том числе тексты, фотографии и видео, можно свободно использовать без согласия автора и не платить за это. Но следует обязательно указать имя автора, произведение, которое цитируете, и источник заимствования.
п. 1 ст. 1274 ГК РФ
п. 20 обзора судебной практики ВС РФ от 12.07.2017 № 3
Цитировать можно как по оригиналу, так и по переводу в научных, полемических, критических, информационных и учебных целях, а также чтобы раскрыть авторский творческий замысел.

Dmitriy_2014 #:

Млин, вы правы после ребута порт изменился только из конфиг.файла sshd, но когда я меняю его и перезагружаю сервис он не меняется без перезагрузки, причем в ssh.socket остался другой порт.

Мля, теперь вообще не понятно, его надо в двух местах менять в sshd_config и в ssh.socket на один и тот же, или можно только в sshd_config, но меняться он будет только после перезагрузки компьютера?
Судя по описанному поведению - в конфиге основная запись, а в сокетах как бы кэш. Когда вы делаете перезапуск сервиса - текущий кэш никак не меняется и работает как и раньше. Нужно или "сбросить кэш" или перезапустить сервер, что точно так же "сбросит кэш" и запустит по записи из конфигурационного файла.
TonyBlackberry #:

Если за индексацию привлечь за нарушение по авторским правам нельзя, то за быстрые ответы можно, особенно если ты прочитал справку яндекса и всё сделал как в ней указано.

Вы по авторским устанете кого-то привлекать, если у вас всех прав на текст - информация на сайте. Это не выпущенная книга, не музыкальное произведение с правами на него, это просто текст. Чтобы вам по авторским бодаться - вы, для начала, должны будете вообще доказать то, что текст на вашем сайте - авторский. Более того, учитывая, что быстро-ответы ссылаются на сайты, откуда они их получили - они не присваивают себе вашу информацию. Ну и еще там можно поговорить об объемах текста в быстро ответах, коего там минимум, что автоматически из разряда "он украл мою информацию" легко переходит в "мы процитировали предложение и указали, откуда была взята цитата". А если GPT перестанет цитировать, а начнет интерпретировать и пересказывать вашу информацию в ответах - там вообще не будет предмета спора.

Это как если вы попробуете судиться за то, что вас тут в ответах кто-то процитировал. Предложение-цитата в качестве спора по авторским, да еще с указанием источника цитаты, как вы себе это представляете?

TonyBlackberry #:

Речь идёт конкретно про быстрые ответы, а не про индексацию сайта.
Чтобы сайту попасть в быстрые ответы нужно:
1. Быть проиндексированным.
2. Не иметь в файле robots.txt запрета на попадание в быстрые ответы.

1. И при этом роботс уже не работает, как это написано у них в справке. Т.е. несмотря на директивы в роботс - страница может быть проиндексирована и далее использована Яндексом.
2. Тут сейчас без вопросов, согласен, исключений пока нет или они не прописаны. Должно работать.

Но к п.2 вопрос - как долго это будет работать. Я выше писал, роботс тоже раньше для индексации был 100% применяемым инструментом. Но, как только вебмастера стали закрывать в роботсе то, что стало интересно Яндексу - он отменил обязательность применения правил роботса. Так что, это лишь вопрос времени, как быстро он перестанет применять и новое правило под GPT, когда большинство его внесет себе в роботс. И сделает его так же как и общий роботс - рекомендуемым.

Всего: 1478