- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Столкнулся с тем, когда дублей страниц или их частей тысячи и вручную перелопатить гугл с поиском фрагмента текста страницы на других страницах реально займет года 2:)
Есть ли софтина для поиска дублей страниц, хотя бы полностью идентичных?
На чьем-то блоге накопал запрос в поиск гугла 'www.site.ua /v'-'site.'... для поиска дублей, но выдало 2 страницы всего. Хотя идентичных страниц после этого нашел около 2к, и вижу это еще не предел)))
А зачем их все искать?
Вот обсуждали недавно, но не до чего не дообсуждались -
/ru/forum/649112
если дубли на сайте и есть и вылазят в индекс, то зачем их удалять?! они же в любом случае как-то систематизированы, а значит для них можно просто прописать общее правило в роботсе!
Вы все верно подметили.
Но есть Г-но дизайнеры, которые делают такое, после чего даже в джумле черт ногу сламает+ говно писатели, которые фрагменты одной статьи разкидают по 15-ти и одну статью делают для нескольки десятков стран(переименовывая название стран только). А джумла делает дубликаты таких вот статей.
Вот тогда не до закономерностей.:)