- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
http://searchcopy.ru/ я тут проверяю лично. быстро, удобно и качественно. А самое главное - доступно и дешево.
Здравствуйте.
О необходимости проверки контента сайта на уникальность говорить не стану, буду краток:
1) Подскажите софтину или сервис, который позволяет осуществлять массовую проверку контента всего сайта, или скажем выделенных под анализ разделов, на уникальность.
2) Если такого чуда в природе нет ещё, то как вы решаете данную задачу? Не в ручную же несколько десятков, а то и тысяч страниц перебирать.
Надеюсь, что проблема общая, и тема будет полезна.
Заранее благодарен.
ЗЫ: сильно не пинать
Продам самописную софтину на C#. Проверяет через Яндекс. Ищет каждое предложение в "кавычках". Предложение выделяет желтым, если нашло - неуник, иначе зеленым - уник, если не нашло.
Прошу 50$. Работает в потоках. Можно через прокси, если прокси из бесплатных списков, то обычно много умерших, и выходит примерно 1000 проверок за 30-40 мин. Можно через Яндекс.XML - на порядок быстрее.
Использовал для своих нужд, проверял по несколько тыс. предложений в сутки через прокси. Могу подключить через XML, если надо. Только потребуется немного времени.
Ищет каждое предложение
А как же разбиение контента на пресловутые шинглы или пассажи?
А как же разбиение контента на пресловутые шинглы или пассажи?
К сожалению на пресловутые шинглы или пассажи не разбивает. Делит просто на предложения, разделители - точка, !, ?, ... . Для моих нужд этого было достаточно. Можно конечно будет доработать разбивку, но это немного позже. Сейчас совсем времени нет.