- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, форумчане.
С сайтом такая проблема - образуются дубли страниц:
основная
- site.ru//sankeramika
и дубли такого плана:
- site.ru/sankeramika?filter_product=
- site.ru/sankeramika/orderDesc?filter_product=
- site.ru/sankeramika/orderDesc/by,mf_name?filter_product=
- site.ru/sankeramika/by,mf_name?filter_product=
robots выглядит следующим образом:
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /component/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /orderDesc
Disallow: /*detail
Disallow: /?start=
Disallow: /*results
Disallow: /*by,mf_name
Disallow: /*?filter_product=
После переиндексации прошло несколько месяцев, и в яндексе все дубли ушли, остались только нужные основные страницы. В Google же количество проиндексированных страниц в 5 раз больше, чем в яндексе и все дубли выводятся в supplemental index. Влияет ли это на оптимизацию сайта? И нужно ли с этим бороться?
По-моему гуглю глубоко фиолетовы все эти рекомендации ведущих яндексоидов насчет роботов, сайтмапс и прочей древней лабуды. Говорят что только особые метатеги могут упросить гугль не индексировать страницу. Я такие делал для сайта на тестовый период залитого на левый домен, но проверять попал ли он в индекс или нет - не стал.
Гугль это не Яндекс только получше и побольше, гугля - это вообще другая политика и технология. Забейте. Главное чтобы нужное было на месте, а ненужное и не нужно.
---------- Добавлено 03.06.2015 в 23:10 ----------
и дубли такого плана:
В смысле скрипт генерит такого рода гиперссылки или зачем он генерит разные ссылки на один и тот же контент?
По-моему гуглю глубоко фиолетовы все эти рекомендации ведущих яндексоидов насчет роботов, сайтмапс и прочей древней лабуды....
Есессно, гугл клал на яндекс:D Однако это не отменяет политики самого google, который жестко наказывает за допущенные огрехи.
Говорят что только особые метатеги могут упросить гугль не индексировать страницу.
А можно с этого места поподробнее? Речь идет о meta robots в коде html страниц?
Можете также в вебмастерах гугла попробовать их удалить. Сканирование->Параметры URL->Настройка параметров URL. Там добавляете параметр filter и запрещаете индексирование урлов, содержащих этот параметр. Подробнее тут описано https://support.google.com/webmasters/answer/6080550
Я уже перестал бороться с гуглом, который индексирует, все, что хочет, закрывай, не закрывай. )
https://support.google.com/webmasters/answer/6062608?hl=ru
https://support.google.com/webmasters/answer/93710
https://support.google.com/webmasters/answer/6062608?hl=ru
https://support.google.com/webmasters/answer/93710
Спасибо, изучила эти доки. И тогда встречный вопрос: вставив код с noindex для каждой дублирующей страницы, нужно, соответственно, убрать запреты на индексацию в файле robots.txt. В результате google должен отреагировать, а яндекс?
Яндекс тоже реагирует на этот метатег
или для яндекса можно отдельное правило сделать в роботсе
User-agent: Yandex
Яндекс тоже реагирует на этот метатег
или для яндекса можно отдельное правило сделать в роботсе
User-agent: Yandex
Спасибо, схема понятная и оптимальная. Воспользуюсь.
А Вы не хотите попробовать добавить в роботс:
Как по мне синтаксис не правильный:
Disallow: /*results
Disallow: /*by,mf_name
Disallow: /*?filter_product=
Вообще, я бы рекомендовал отрегулировать все ссылки на плохие адреса - уходит вес со страницы, никакой пользы
Надеюсь это опечатка
А Вы не хотите попробовать добавить в роботс:
Как по мне синтаксис не правильный:
Не сильна в синтаксисах, составляла robots, ориентируясь на яндекс вебмастер.
Спасибо за дельную подсказку, отлично решился запрет индексации без лишних строк.
Вообще, я бы рекомендовал отрегулировать все ссылки на плохие адреса - уходит вес со страницы, никакой пользы
Соглашусь на тысячу процентов, вот, разбираюсь, как оптимально решить вопрос в джумле.
P.S. да, site.ru//sankeramika - это опечатка:)