Appassionato

Appassionato
Рейтинг
329
Регистрация
22.06.2010

А Вы уверены, что хотите кормить ребенка витамином Д без предписания врача?

Возможность удаления появится после оплаты лицензии😂

burunduk:
да ну :)
а что мешает мне представиться Яшей, вы все их IP знаете?

Через RIPE принадлежность сети Яндексу определить проблем не составит.

А вот вообще загадка:

1 и 2 (логики я здесь не понимаю, вплотную)

И напоследок, другая часть текста с той же страницы

сабж

---------- Добавлено в 01:00 ---------- Предыдущее сообщение было в 00:46 ----------

Так же в этимологии ресурса - незначительная коррекция текстов после того, как их скопипастили. (Предложение дописали, дату изменили и т.д.)

---------- Добавлено в 01:02 ---------- Предыдущее сообщение было в 01:00 ----------

mup2:
Нужно написать Платону

У меня был ресурс с похожей проблемой - Платоны динамили. Но там копипастеров было 4 человека, и они все под давлением удалили контент.

burunduk:
и как вы определите что код был исполнен?
тем более роботы пс его то же не исполнят

По вторичному запросу.

Роботы ПС может и не исполнят (Гугл под вопросом), но они и браузером прикидываться не станут.

burunduk:
приведу простой пример если сайт в топе и невидно ссылок это повод его проверить пристальнее и сеточки вычисляются на раз

Ссылки-то видно, вопрос в их количестве :) Часть ссылок на одном зеркале, часть на другом и т.д.

Вообще, речь идет в первую очередь от трудозатратах на выяснение всех нюансов.

Про анализ ценности, как донора, речь не идет.

юни:
Никто не запрещает представляться обычным браузером, опять же.

User-agent - это одно, а IP-подсеть - это другое. Подсеть просто так не подделаешь. Хотя с другой стороны несколько кило прокси могут этот момент и решить.

В любом случае, RDS и соломоно - это масс-март. И, ИМХО, никто не будет ради пары процентов параноидальных веб-мастеров извращаться с IP-подсетями и проксями.

Выскажу пару предположений:

Допустим, основные подсети RDS и соломоно можно сразу в бан-лист.

Из "правильных ботов" у нас кто? - Гугл, Яндекс, контакт, ФБ, вебархив ну и еще несколько штук наберется. Их сразу в вайт-лист. Остальных при подозрении на ботоводство проверяем через RIPE на предмет владельцев подсети (если есть корреляция с подсетями вышеозначенных пауков, то в бан). Ну и т.д.

Как по мне, проблема ведь не нова.... С тем же ддосом научились бороться. С вредными пауками по идее тоже можно попробовать.

1. сателлиты

2. зеркала (да, тот самый дедовский способ, который отлично маскировал YSE)

3. данные внутреннего анализа

4. сайты партнеров

ну и т.д.

---------- Добавлено в 22:50 ---------- Предыдущее сообщение было в 22:48 ----------

burunduk:
Appassionato, эти приличные, но если сайт есть в топе по интересному запросу - у вас даже разрешение не спросят и не представятся или представятся яндексом :)

Теоретически можно парсить подсети обращающихся ботов. И все, что лишнее (аффилировано с парсерами) - в бан htaccess или iptables.

Да понятно, что от всех не оградишься.... - Кто сильно захочет, тот и вручную найдет.

Хотелось бы хотя бы защититься от самых очевидных.

Всего: 3240