- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть большой старый сайт (eng), более 15 000 страниц в индексе Google. Страницы новостей, описаний объектов, товаров, с возрастом от несколько дней до нескольких лет. Сайт давно болеет, был под Пингвином, сейчас лечим понемногу. Ещё только Панды нехватало.
Как весь сайт проверить на дубли и найти самые критические страницы с отчаянным copy&paste?
Copyscape помог с некоторыми разделами, но 15 000 страниц в него загонять накладно выходит. Да и переписать столько страниц будет очень накладно, нужно определить главное.
text.ru, но тоже недешево будет.
Анализировать дубли метатегов (Г.Вебмастер, Нетпик Спайдер), вручную анализировать контент (пройтись по нескольким страницам из каждого шаблона на наличие дублей текста в выдаче). Потом из этого выбрать нужное.
Предлагаю следующий вариант: если есть семантическое ядро, можно регулярно проводить анализ посадочных страниц запросов, на основании их динамики (скачков) можно определить дублирующиеся страницы.
Предлагаю следующий вариант: если есть семантическое ядро, можно регулярно проводить анализ посадочных страниц запросов, на основании их динамики (скачков) можно определить дублирующиеся страницы.
Спасибо, хорошая идея, но страницы с дублированным / не уникальным контентом ищутся плохо, задача определить такие и с рерайтить.
http://www.copyscape.com/
http://www.copyscape.com/
Прочитайте мой первый пост внимательнее, вы считали, сколько будет стоить продать 15000 страниц через Copyscape?
А ведь проверок нужно сделать хотя бы пару - исходный сайт и после рерайта.
Есть большой старый сайт (eng), более 15 000 страниц в индексе Google. Страницы новостей, описаний объектов, товаров, с возрастом от несколько дней до нескольких лет. Сайт давно болеет, был под Пингвином, сейчас лечим понемногу. Ещё только Панды нехватало.
Как весь сайт проверить на дубли и найти самые критические страницы с отчаянным copy&paste?
Copyscape помог с некоторыми разделами, но 15 000 страниц в него загонять накладно выходит. Да и переписать столько страниц будет очень накладно, нужно определить главное.
Попробуйте десктопный Etxt Антиплагиат
Будет конечно долго проверять, зато бесплатно ) почти только антигейт пополнить нужно.
Проверить на дубли title и meta, а также на дубли h1 и ошибки http можно через netpeak spider, тут скачайте, понятно всё интуитивно.
Проверить на дубли title и meta, а также на дубли h1 и ошибки http можно через netpeak spider, тут скачайте, понятно всё интуитивно.
Ним долго будет, лучше SEOSpider_ом прочекать. Хотя вышеуказанное ПО тоже достойное.
Я прям даже близко не кодер, но мысль такая: может организовать все на уровне проверки БД? Думаю, такое пригодилось бы многим: искало бы даже то что не в индексах. Само собой, это при условии, что текста и мета в БД, а не еще где-то.