- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день всем!
Вопрос к спецам, заранее всем благодарен за ответ.
---
Статья в поиске Google выходит по 4м ссылкам:
(В Яндексе выходит только одна ссылка- на полный текст статьи.)
1. Ссылка на полный текст статьи (то, что нужно)
site.ru/4316-istoriya-devushki-voditelya-s-zhenskogo-foruma.html
2. В списке статей автора статьи
site.ru/user/имя_автора/news/
3. В разделе, к которому относится статья
site.ru/название_раздела/page/2/
4. Архив статей
site.ru/page/5/
=================
Вопрос прост:
Как запретить вывод дублей в поиске Google?
=================
Повторюсь, что в Яндексе все ок.
Кто-то прояснит сию загадку?
Спасибо!
Неужели никто не знает ответа? )
проанализируйте свой robots - может для бота яндекса дубли запрещены, а для других ботов запрет не настроен
В robots у меня две идентичные секции со списком команд:
User-agent: *
и
User-agent: Yandex
Сделать также и для Googlebot ?
Разве "User-agent: *" он не воспринимает и нужно отдельно прописывать?
*Спасибо за первый ответ!
В robots у меня две идентичные секции со списком команд:
User-agent: *
и
User-agent: Yandex
Сделать также и для Googlebot ?
Разве "User-agent: *" он не воспринимает и нужно отдельно прописывать?
*Спасибо за первый ответ!
Убери секцию User-agent: Yandex, если они идентичные
Убери секцию User-agent: Yandex, если они идентичные
Это поможет убрать дубли в Гугле?
Это поможет убрать дубли в Гугле?
не поможет
тут надо смотреть, что такое лишнее попадает в индекс гугла и запрещать это в роботсе, либо прописывать мета-теги ноиндекс
Добрый день всем!
Вопрос к спецам, заранее всем благодарен за ответ.
---
Статья в поиске Google выходит по 4м ссылкам:
(В Яндексе выходит только одна ссылка- на полный текст статьи.)
1. Ссылка на полный текст статьи (то, что нужно)
site.ru/4316-istoriya-devushki-voditelya-s-zhenskogo-foruma.html
2. В списке статей автора статьи
site.ru/user/имя_автора/news/
3. В разделе, к которому относится статья
site.ru/название_раздела/page/2/
4. Архив статей
site.ru/page/5/
=================
Вопрос прост:
Как запретить вывод дублей в поиске Google?
=================
Повторюсь, что в Яндексе все ок.
Кто-то прояснит сию загадку?
Спасибо!
Пропишите канонический адрес для страницы.
vigilant, vagogrande спасибо за полезные советы по теме вопроса.
В итоге я использовал два способа:
1. мета-теги <meta name="robots" content="noindex,follow" /> на ненужных страницах
2. мета-тег rel=”canonical” на предпочтительной, нужной странице