User-agent - это одно, а IP-подсеть - это другое. Подсеть просто так не подделаешь. Хотя с другой стороны несколько кило прокси могут этот момент и решить.
В любом случае, RDS и соломоно - это масс-март. И, ИМХО, никто не будет ради пары процентов параноидальных веб-мастеров извращаться с IP-подсетями и проксями.
Выскажу пару предположений:
Допустим, основные подсети RDS и соломоно можно сразу в бан-лист.
Из "правильных ботов" у нас кто? - Гугл, Яндекс, контакт, ФБ, вебархив ну и еще несколько штук наберется. Их сразу в вайт-лист. Остальных при подозрении на ботоводство проверяем через RIPE на предмет владельцев подсети (если есть корреляция с подсетями вышеозначенных пауков, то в бан). Ну и т.д.
Как по мне, проблема ведь не нова.... С тем же ддосом научились бороться. С вредными пауками по идее тоже можно попробовать.
1. сателлиты
2. зеркала (да, тот самый дедовский способ, который отлично маскировал YSE)
3. данные внутреннего анализа
4. сайты партнеров
ну и т.д.---------- Добавлено в 22:50 ---------- Предыдущее сообщение было в 22:48 ----------
Теоретически можно парсить подсети обращающихся ботов. И все, что лишнее (аффилировано с парсерами) - в бан htaccess или iptables.
Да понятно, что от всех не оградишься.... - Кто сильно захочет, тот и вручную найдет.
Хотелось бы хотя бы защититься от самых очевидных.
В ФФ, наконец-то, все заработало.
Есть О., которые предпочитают не покупать в ГГЛ ссылки с сайтов, на которых хотя бы когда-нибудь стояла сапа. Сами понимаете, смотреть по веб-архиву и прочим источникам, была ли сапа, весьма напряжно.
---------- Добавлено в 16:34 ---------- Предыдущее сообщение было в 16:17 ----------
Сделайте пометку только для тех, кому это нужно.
Чтобы:
а. не нервировать тех, кто хочет снять сапу.
б. удовлетворить ряд О.
Т.е. в списке площадок ничего не показываем, а при поиске добавляем чекбокс "не показывать сайты, которые хотя бы раз были замечены в ссылочных биржах".
И волки сыты, и овцы целы.
Присоединяюсь к вопросу.
И не говорите, что Вас не предупреждали ;)😂
ЗЫ: последняя жизнеспособная (в плане качества комплектухи) серия д-линков - 25xx (до этого были 5xx - вообще хорошие железки).
Человек спросил о сильно "белом" продвижении в теории :) Почитайте гидлайны того же Гугла по входящим ссылкам :)
Кстати, в СМИ-тематике это вполне рабочий метод очень быстрого получения огромной массы внешних ссылок. При условии наличия в ЯН и реальной уникальности контента.
Без лишних телодвижений нормальное региональное СМИ рубит ~300 птиц в год (посмотрел по паре проектов, за которыми наблюдаю) :)---------- Добавлено в 03:39 ---------- Предыдущее сообщение было в 03:33 ----------
Если уж хотите совсем в теории, то в вашем случае, ИМХО, стоит расширять формат ресурса до комьюнити. Тогда будет естественное цитирование (но явно не по Вашему анкор-листу). А вот откуда взять трафик для этого комьюнити - это уже другая задача.
А если без теории, то протиснуться в нишу, которая уже 100500 раз делена-переделена, без тучи коммерческих ссылок или действительно уникальной функциональности не получится. Да и если есть эта самая функциональность, то вопрос уже упирается в полноценный брендинг.
Нет. В мире обязательное требование - это уник.