- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
с кодированием проблем никаких нет, делается просто
плюс, я не только от сервисов хотел убрать, но и от поисковых систем, в частности Яндекса, может я дую на воду, но все таки решил предохраниться
titaniMOZG, ну паблик сервис по поиску по pubid вы забаните.
А что делать с остальными непаблик сервисами?
Могу навскидку десяток написать, с доступом к базе после оплаты.
Ну а проблема использовать этот же метод для них?
Регнуть домен, поставить скрипт, подождать, а потом покупать доступы и смотреть, что покажут?.
К тому же, абсолютной защиты не бывает. Можно минимизировать какие-то риски, но кому надо, тот всегда найдет. Все дело в том, насколько сложно или не сложно ему это дастся.
Я предложил решение для затищы как минимум от самых попсовых методов вычисления, которые составляют может процентов 90 всех случаев поиска.
Ну а проблема использовать этот же метод для них?
Регнуть домен, поставить скрипт, подождать, а потом покупать доступы и смотреть, что покажут?.
К тому же, абсолютной защиты не бывает. Можно минимизировать какие-то риски, но кому надо, тот всегда найдет. Все дело в том, насколько сложно или не сложно ему это дастся.
Я предложил решение для затищы как минимум от самых попсовых методов вычисления, которые составляют может процентов 90 всех случаев поиска.
Тут вопрос то состоит не в битве с роботами, а в диверсификации рисков.
Вот вы потратите кучу времени и денег на отлов роботов, а тот кто вам хотел нагадить (ну тот кому нужен был пробив по pub-id) это остановит? Ведь он уже знает ваш сайт и ваш pubid.
Это первый момент. Второй момент:
Сервисы занимающиеся парсингом бывают разные - кто-то (кто попроще) с одного IP парсит, а кто-то в многопоточном режиме через портянку проксей или vpn. Бан IP (попадание в списки абуз, спамкопов и проч.) для таких сервисов - обычное дело. Если сервис коммерческий - то его ботов вы не выловите физически, так как они практически никогда не запускают парсеры со статических IP.
ps. Вот я более чем уверен что глянув на пару ваших MFA-сайтов я и без pub-id сервисов смогу определить большую часть сетки. Вопрос желания.
А ещё есть бары, типа сеоквейка, их вообще не отловишь.