- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Кто-нибудь сталкивался с задачей автоматизации проверки страниц сайтов на уникальность?
Т.е. есть задача, к примеру, взять интернет-магазин с новостями, товарами и услугами, и проверить все, или основную часть (возможно ограничиться 2-3 УВ?) его страниц на уникальность. Ну и так по всем потенциальным и продвигаемым проектам, т.е. ручками тут уже не справишься.
Базовый принцип понятен: выкачиваем до необходимого лимита/глубины страницы проверяемого сайта, устанавливаем длину шингла, бьём проверяемый текст, и получившийся массив проверяем в Яндексе (допустим, что вопрос с капчей является решённым), получаем адреса топ5 по каждому шинглу, и проверяем каждый адрес по всему массиву, устанавливая % уникальности.
Вопрос: в чём я ошибся, где подвох? )
Имея урл всех страниц, можете проверить на уникальность каждую в allsubmitter последнем
Есть онлайн-сервисы по проверке на уникальность.
Можно их с помощью CURL прогнать
Сторонние сервисы - это сторонние сервисы, нужен собственный инструмент. Поэтому интересует опыт людей, которые решали подобный вопрос.
В десятке, смотрите в программе Etxt Антиплагиат (меню "Операции" -> "Проверка сайта").
В десятке, смотрите в программе Etxt Антиплагиат (меню "Операции" -> "Проверка сайта").
Что мне там посмотреть? Я и адвего плагиатус могу посомтреть... но что мне это даёт?
Меня интересует вопрос сокращения запросов к Яше, представляете сколько потребуется запросов на проверку страницы из 400 слов? Если исходить из числа слов в шингле - 8, то ровно 50 запросов. А если страниц 1000? А если данную операцию нужно выполнить в огромном кол-ве потоков? ...
Вообщем меня интересуют более "умные" схемы, например получение первоначальных результатов через Гугл, Яху, а потом уже перепроверка найденых совпадений в Яше. Ну это к примеру.
В десятке, Вы бы в возможностях существующего софта для начала разобрались. Как Вы собираетесь проверять целиком сайт в Advego Plagiatus?
Хотите сократить число обращений к Яндексу? Etxt Антиплагиат -> Настройки -> Общие -> установите желаемый "Размер выборки в словах", "Число выборок". Включите antigate, нормальную задержку и занимайтесь своими делами. И хоть миллион запросов делайте! Вам что надо, убедиться в уникальности контента или быстренько симулировать проверку?
получение первоначальных результатов через Гугл, Яху, а потом уже перепроверка найденых совпадений в Яше. Ну это к примеру.
И что же тут "умного". Вы знаете, что поисковая база Google заметно больше, чем у Яндекса? Материал НЕ уникальный в Google, будет полностью уникален в Яндексе. И в чем же смысл перепроверки?
Единственное ПО, способное проверять на уникальность целиком сайт - Etxt Антиплагиат.
В десятке
http://searchcopy.ru/ отличная идея был у данного владельца сервиса.
http://miratools.ru/ рабочий вариант, но дорогой.
кто-то на форуме выкладывал свои наработки.
А вообще считаю, тема актуальная и непонятно, почему ее не развивают)
Кто-нибудь сталкивался с задачей автоматизации проверки страниц сайтов на уникальность?
Т.е. есть задача, к примеру, взять интернет-магазин с новостями, товарами и услугами, и проверить все, или основную часть (возможно ограничиться 2-3 УВ?) его страниц на уникальность. Ну и так по всем потенциальным и продвигаемым проектам, т.е. ручками тут уже не справишься.
Базовый принцип понятен: выкачиваем до необходимого лимита/глубины страницы проверяемого сайта, устанавливаем длину шингла, бьём проверяемый текст, и получившийся массив проверяем в Яндексе (допустим, что вопрос с капчей является решённым), получаем адреса топ5 по каждому шинглу, и проверяем каждый адрес по всему массиву, устанавливая % уникальности.
Вопрос: в чём я ошибся, где подвох? )
Слишком по детски проверять по шинглам. )))) имхо.
AlienZzzz а как по другому?;)
AlienZzzz а как по другому?;)
а тебе лысый я скажу в Аське )