- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите, если ли программа или сервис, чтобы проверить уникальность контента сразу большого числа страниц сайта, например загнав в нее список урлов проверяемых страниц? Или например задав адрес сайта, программа сама пропарсила все страницы сайта и проверила их все на уникальность?
А вот купил бы такой софт... от $50-70 и более... пакетный. Именно анализатор урлов внешних на уник. Это и свои сайты чекать на воровство помогло бы постоянно, особенно в свете последних событий с bdbd (якобы их выбили своровав у них контент), и, что самое главное, оценивать качество доноров.
Такой софт весьма бы пригодился для отсева отвратно работающих страниц в биржах. Не секрет, что огромное количество сайтов имеют дублированный граберами контент, там может быть и тиц100 и пр3, и индексированность, а для яндекса страница быть далеким неуником. Это большой вопрос - насколько хуже с неуника передается ссылочное, но если страница в невидимом индексе (показать все страницы без исключения), то практика показывает что ссылка оттуда несмотря на индексацию ее работает спорно или слабо. По крайней мере проекты на которые нудно и тяжко проверялись доноры на предмет уника страницы очень хорошо себя чувствуют. Это во многом просто еще и качество сайта в целом показывает - уникальное наполнение.
Кроме того дикое количество служебных страниц продается с вполне нормальных сайтов - всякие там страницы с превью статей, с карт сайтов, со страниц дублированного контента, вообщем страницы которые можно найти по унику только "еще с сайта" - тоже тут вопросы возникают, насколько такие страницы работают, по сравнению с основной страницей находящейся по унику с текстом.
ЕСЛИ БЫ можно было бы реализовать программу, которая:
*)И все это пакетно, из .txt списка урлов, чтобы не торопясь урлов 300-400 за несколько часов в один-два потока анализировало. Хотя и прокси не помешали бы. Ну и по размышлению еще можно всяких потом фич прикрутить, типа вычисления возраста страницы через вебархив, анализ некоего количества страниц с сайта в целом, чтобы определить вообще сайт на предмет пропорции своего и тыренного текста, коннект к урлам через API сапы (ну это уже баловство) и т.п..
Если кого-то такой софт тоже интересует - отписывайтесь в этой теме или в ЛС (или аська и мыло, см в профиле). Если 3-4 человека со мной соорганизуются по $30-50, можно будет заказать такое здесь или на фрилансе всяком. Естественно нужно продумывать многое, т.к. в чистом виде слишком примитивно.
Если такое уже есть - буду ну весьма признателен за ссылку. В принципе и отгугловый подошел бы анализатор.
+1 за серверную реализацию
Как наберете - сучите
ЗЫ: Можем и на двоих сообразить
Ася: 46221восемь67восемь
Если в виде скрипта или приложения на продажу, то интересно
да, я тоже готов 30-50$ выделить на это дело
Если в виде скрипта или приложения на продажу, то интересно
Возмите скрипт, доработайте немного, скрипт стабильный, только по большим текстам 504
Для пакетной обработки прикрутить список урлов из Яши или Гугла не сложно для грамотного прогера.(( не успевает сервак) http://nado.su/downloads.html / Старый вариант декстопной проги не берите... скоро новый будет.
praide, заинтересовала ваша програмка. Как скоро будет новая версия десктопного варианта? на сайте не указана актуальная версия, как узнать об обновлении?