- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если я пропишу метатег link с арибутом rel=canonical на канонические копии, отанутся ли неканонические дубли в поиске GooGle?
И можно ли писать этот тег на самих канонических страницах (самим на себя)? Не повлияет ли это отрицательно на выдачу.
8 В ЧаВо гугла сказано что неканнические страницы не убираются из индекса, а просто ранжируются ниже :(((
1) неканонические страницы останутся в поиске, просто по запросе "малиновое мороженое" будет выступать Ваша каноническая страница, с красивой урлой и т.д., а не страница с пагинацией, например. Неканонические будут опущены в "сопли", так называемые supplemental pages. Такие страницы можно увидеть, если Вы введете любой запрос и Вам Гугл объявит, что этому запросу в индексе соответствует 10 000 страниц, но уже после 100 (например) он скажет, что всю выдачу Вы просмотрели, если хотите еще - илите в сопли, только там могут быть дубли того, что Вы уже видели.
Для того, чтобы закрыть дубли именно от индекса, надо прописать эти страницы в robots.txt (файл в корневой), либо в коде самой страницы атрибутом.
2) Вы можете в коде страницы указывать эту же страницу как каноническую, например, в движке вордпресс оно так и реализовано. Тут ничего страшного нет.
1) неканонические страницы останутся в поиске, просто по запросе "малиновое мороженое" будет выступать Ваша каноническая страница, с красивой урлой и т.д., а не страница с пагинацией, например. Неканонические будут опущены в "сопли", так называемые supplemental pages. Такие страницы можно увидеть, если Вы введете любой запрос и Вам Гугл объявит, что этому запросу в индексе соответствует 10 000 страниц, но уже после 100 (например) он скажет, что всю выдачу Вы просмотрели, если хотите еще - илите в сопли, только там могут быть дубли того, что Вы уже видели.
Для того, чтобы закрыть дубли именно от индекса, надо прописать эти страницы в robots.txt (файл в корневой), либо в коде самой страницы атрибутом.
2) Вы можете в коде страницы указывать эту же страницу как каноническую, например, в движке вордпресс оно так и реализовано. Тут ничего страшного нет.
В панели Вебмастера Гугла есть такая фигня как оптимизация HTML. Там выдаются тысячи ошибок по данному сайту ( клон страниц или как там сказано: повторяющийся тег TITLE)
Канонизация избавит от этих ошибок? Ведь, возможно, именно они стали причиной бана сайта в гугле. (пропадут ли они?)
Да. Скажите, а сайт именно в бане или все-таки пессимизирован просто? потому что из-за такого бан не получают... только пессимизацию или максимум, фильтр.
Да. Скажите, а сайт именно в бане или все-таки пессимизирован просто? потому что из-за такого бан не получают... только пессимизацию или максимум, фильтр.
Сайт есть в выдаче но откатился очень далеко вниз