- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Яндекс указал мне что у меня присутствуют дубли страниц, и показал парочку. Сайт построен на битриксе, который и плодит эти дубли страниц, пока программист решает этот вопрос, мне нужно поубивать существующие дубли. А теперь собственно вопрос: каким образом можно найти все дубли на сайте?
Добрый день.
К вариант, взять часть текста со станицы (несколько слов) и написать в поисковой строке Яндекса следующее:
"фраза/предложение" site:domain.ru
Вы сразу увидите все страницы на которых присутствует данная фраза. Важно: фразу надо писать в кавычках.
bigton, каждую страницу искать?
DenisVS, да. Я понимаю, что для сайта с тысячью страниц это не вариант, а для небольшого сайта - вполне приемлемое решение.
bigton добавил 02.06.2010 в 18:39
RZ101, если программист решит вопрос с дублями страниц на уровне CMS и ссылки на страницы с продублированным контентом буду выдавать 404-ю ошибку, то после переиндексации вашего сайта страницы-дубли будут автоматически исключены.
DenisVS, да. Я понимаю, что для сайта с тысячью страниц это не вариант, а для небольшого сайта - вполне приемлемое решение.
Мда… А при покупке ссылок Вы пишете письмо вебмастеру?
А что Вам ещё нужно, Яндекс же показал. Robots.txt пишите нормальный, не руками же каждый дубль закрывать. Заметьте: закрывать, а не удалять!
http://yandex.ru/yandsearch?text=битрикс+robots.txt&lr=213
evgeny_kostin добавил 02.06.2010 в 18:42
если программист решит вопрос с дублями страниц на уровне CMS и ссылки на страницы с продублированным контентом буду выдавать 404-ю ошибку, то после переиндексации вашего сайта страницы-дубли будут автоматически исключены.
Да-да, битые ссылки помогут Вашему сайту вылезти в ТОП. Гарантировано! 😂
Битые ссылки — путь к успеху.
Добавьте сайт в Инструменты для Вебмастеров Гугла. Он вам покажет страницы с дублированными тайтлами и дескрипшинами. Очень вероятно это и будут дубли.
Да, Яндекс показал мне всего пару примеров, еще пару программист сам нашел. А сколько их еще внутри сайта? Два? Три? Десяток? Сотня? Чтобы программист их поубивал, их и необходимо как-то изыскать. На сайте тысячи страниц, ток что руками все не проверить.
to Alex DeLarge
Вебмастер Гугла подключен, а где именно там можно посмотреть страницы с дублированными тайтлами и дескрипшинами?
Да, Яндекс показал мне всего пару примеров, еще пару программист сам нашел. А сколько их еще внутри сайта? Два? Три? Десяток? Сотня? Чтобы программист их поубивал, их и необходимо как-то изыскать. На сайте тысячи страниц, ток что руками все не проверить.
Искать их не нужно. Дубли не возникают сами по себе. Например, если на сайте есть облако тегов или меню категорий, то в них дублируется часть контента. Поскольку используется популярный движок — Битрикс, выискивать самостоятельно адреса этих страниц не надо, всё уже написано за Вас: http://yandex.ru/yandsearch?text=битрикс+robots.txt&lr=213 .
to evgeny_kostin
Спасибо за ссылку, буду изучать, именно на такие ссылки (/catalog/xxx/section.php?SHOWALL и /catalog/xxx/section.php?PAGEN ) яндекс мне и указал.
Никаких облаков тегов и прочего дублированного "умышленно" контента на сайте нет.
Вопрос остаётся актуальным. Или CMS или предыдущий программист (умышленно или нет) наделали дублей страниц. Как найти эти дубли, чтобы в последствии закрыть в robots.txt?
Продолжаю просить помощи...