- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В течение последнего времени Яндекс, как и другие поисковые системы, ужесточают условия для "автоматического" получения результатов их работы (в частности, парсинг обычной выдачи, выдачи по операторам, выдачу вордстата и пр).
В данный момент, простое наращивание мощностей для получения данных не даёт удовлетворительного результата, и сейчас насущно необходимо алгоритмическое решение (или их комплекс), позволяющее эффективно обходить ограничения поисковых систем (максимально полно имитируя поведение пользователя ПС, с помощью построения "невычисляемой" сети парсящих узлов, и/или иными методами).
Предлагаю заинтересованным людям поделиться своими соображениями.
Имеющие конкретные идеи (или их программное воплощение) могут смело писать в личку - со статистическим материалом для анализа проблем нет (регулярно появляются гигабайты информации), мощности для проверки теорий тоже предоставим.
Нужен мозг. :)
это может?
wizzer, в идеале нужена метода, позволяющая избежать появления капчи вообще.
wizzer, в идеале нужена метода, позволяющая избежать появления капчи вообще.
Как насчёт этого: /ru/forum/415110
Str256, в курсе этого решения. Метод не универсальный и не глобальный (да и прикроют его, если пользоваться в промышленных масштабах).
"Нужна идея". :)
и сейчас насущно необходимо алгоритмическое решение (или их комплекс), позволяющее эффективно обходить ограничения поисковых систем (максимально полно имитируя поведение пользователя ПС
Насколько знаю, есть такая программа: Негроимитатор. Там всё это реализовано.
wizzer, неплохо.
Вообще скрипт такой сделать то не проблема с использованием сервиса типа анти-капчи. Да думаю уже сделаны они где-нибудь.
wizzer, в идеале нужена метода, позволяющая избежать появления капчи вообще.
Чем вам XML запросы не нравятся?
парсинг обычной выдачи
выдачи по операторам
вроде решает эту проблему.
выдачу вордстата - жестоко не мучал, такчто анти-капчи хватает.
Чем вам XML запросы не нравятся?
количеством.
bimcom, XML не всегда отдаёт результаты на больших объёмах (после 500-600 запросов вылезает "ничего не найдено"). Кроме того, не всегда удобно регистировать там по нескольку тысяч ip.
Впрочем, как вариант можно рассмотреть (в личку ответит человек).
Вообще скрипт такой сделать то не проблема с использованием сервиса типа анти-капчи.
Анти-капча не выход, стоит задача капчи вообще избежать. Кроме того - с какими объёмами справится этот сервис? Больше миллиона запросов в день - переварит?
Насколько знаю, есть такая программа: Негроимитатор. Там всё это реализовано.
Можно подробней?