- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
Есть у меня такой вопрос. Недавно приобрел программу огуречный lincoskope. Эта софтина показывает внутренние страницы на сайте и вычисляет их вес. Не знаю какой алгоритм там использован, но это и не важно. Важно то, что при проверке сайта она выдает такое количество страниц, что в страшном сне не приснится. И причем большее количество дублей. Так вот у меня такой вопрос - видят ли поисковики эти дубли, что видит программка?
Вот программка
дружище, проверить индексацию страниц несложно, используй яндекс
Яндекс я использую. Вопрос в другом, видят ли эти дубли поисковики и стоит ли их закрывать в robots или htaccess?
некорректный вопрос
что вы вкладываете в понятие "видят"?
если ссылки на страницу есть на сайте, то страница индексируется, если индексация не запрещена в роботс
Что я вкладываю в понятие видят. Пример. Есть сайт, например на joomla. Я проверяю этот сайт в данной софтине. Там вижу огромное количество дублей. Так вопрос в чем, поисковый робот при обходе страницы, я так подозреваю тоже индексирует эти дубли. А эта прямая дорога под фильтр АГС. Посмотрите любой сайт на joomla через эту программку и сами зададитесь вопросом. Потому, что я на 100% уверен, что эти дубли никто не закрывает. Может быть программа не совсем корректно работает.
нет тут прямой дороги под фильтр АГС.
дубли просто ухудшают индексацию сайта и снижают уникальность контента.
вы правы, их мало кто закрывает - именно поэтому правильная внутренняя оптимизация сайта - часто путь к тому чтобы сделать ваш сайт лучше многих конкурентов в глазах поисковой системы
с дублями на джумле лучше работать не только и не столько роботсом, сколько клеем 301 там, где это не нарушает логики сайта.
Вы представьте себе, если клеить все дубли, которые выдает эта программка, какой тогда будет объем htaccess.