Как проверить сайт на дубли?

B
На сайте с 13.09.2011
Offline
94
4120

Есть большой старый сайт (eng), более 15 000 страниц в индексе Google. Страницы новостей, описаний объектов, товаров, с возрастом от несколько дней до нескольких лет. Сайт давно болеет, был под Пингвином, сейчас лечим понемногу. Ещё только Панды нехватало.

Как весь сайт проверить на дубли и найти самые критические страницы с отчаянным copy&paste?

Copyscape помог с некоторыми разделами, но 15 000 страниц в него загонять накладно выходит. Да и переписать столько страниц будет очень накладно, нужно определить главное.

IS
На сайте с 23.10.2013
Offline
35
#1

text.ru, но тоже недешево будет.

Flexpk
На сайте с 30.11.2011
Offline
60
#2

Анализировать дубли метатегов (Г.Вебмастер, Нетпик Спайдер), вручную анализировать контент (пройтись по нескольким страницам из каждого шаблона на наличие дублей текста в выдаче). Потом из этого выбрать нужное.

W
На сайте с 03.08.2015
Offline
20
#3

Предлагаю следующий вариант: если есть семантическое ядро, можно регулярно проводить анализ посадочных страниц запросов, на основании их динамики (скачков) можно определить дублирующиеся страницы.

B
На сайте с 13.09.2011
Offline
94
#4
wezom:
Предлагаю следующий вариант: если есть семантическое ядро, можно регулярно проводить анализ посадочных страниц запросов, на основании их динамики (скачков) можно определить дублирующиеся страницы.

Спасибо, хорошая идея, но страницы с дублированным / не уникальным контентом ищутся плохо, задача определить такие и с рерайтить.

V
На сайте с 18.02.2005
Offline
78
#5
B
На сайте с 13.09.2011
Offline
94
#6

Прочитайте мой первый пост внимательнее, вы считали, сколько будет стоить продать 15000 страниц через Copyscape?

А ведь проверок нужно сделать хотя бы пару - исходный сайт и после рерайта.

bioboy
На сайте с 05.03.2012
Offline
89
#7
brandovich:
Есть большой старый сайт (eng), более 15 000 страниц в индексе Google. Страницы новостей, описаний объектов, товаров, с возрастом от несколько дней до нескольких лет. Сайт давно болеет, был под Пингвином, сейчас лечим понемногу. Ещё только Панды нехватало.

Как весь сайт проверить на дубли и найти самые критические страницы с отчаянным copy&paste?

Copyscape помог с некоторыми разделами, но 15 000 страниц в него загонять накладно выходит. Да и переписать столько страниц будет очень накладно, нужно определить главное.

Попробуйте десктопный Etxt Антиплагиат

Будет конечно долго проверять, зато бесплатно ) почти только антигейт пополнить нужно.

Купить и продать любую криптовалюту с кешбеком 100USDT https://www.binance.com/ru/activity/referral/offers/claim?ref=CPA_00S856XJLK
Zegeberg
На сайте с 30.09.2010
Offline
282
#8

Проверить на дубли title и meta, а также на дубли h1 и ошибки http можно через netpeak spider, тут скачайте, понятно всё интуитивно.

Ссылки с форумов, блогов и соц сетей ( https://forumok.com/p/c1710b6b/ ) Антибот ( https://antibot.cloud/?ref=15262 )
manarh
На сайте с 04.03.2010
Offline
163
#9
Zegeberg:
Проверить на дубли title и meta, а также на дубли h1 и ошибки http можно через netpeak spider, тут скачайте, понятно всё интуитивно.

Ним долго будет, лучше SEOSpider_ом прочекать. Хотя вышеуказанное ПО тоже достойное.

Конвертирую свой betting трафик тут: AllBestBets ( https://www.allbestbets.com/affiliates ) и Betburger ( https://www.betburger.com/affiliates ) – $500+ с 1000 тематических переходов.
Seo-Seo
На сайте с 05.12.2006
Offline
292
#10

Я прям даже близко не кодер, но мысль такая: может организовать все на уровне проверки БД? Думаю, такое пригодилось бы многим: искало бы даже то что не в индексах. Само собой, это при условии, что текста и мета в БД, а не еще где-то.

Комплексное продвижение от группы профи. Внимательно, качественно, грамотно. Дизайн, контекст, таргет. (/ru/forum/1024059) hugo.digital (https://hugo.digital)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий