- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Статей про него много. А вот реально помогло кому то улучшить позиции статейных сайтов с этим тэгом? Я понимаю, что надо все делать правильно и без ошибок, но вордпресс плагины просто позволяют поставить галочку и наслаждаться процессом. вопрос в том, стоит ли? если допустим сайт получает нормальный и даже хороший трафик. страницы типа категории и архивы не закрыты от индексации, но к статьям прописаны уникальные описания, которые отображаются в категориях и вроде как не так уж и повторяется контент. при желании сделать лучше, как бы не сделать хуже? не нравится, что ВЧ никак не хотят в топ лезть, даже при маленькой конкуренции. ( про ссылки молчу, на статейный сайт на каждую страницу по естественных вечных 10 ссылок не купить ).
Есть кто улучшил реально позиции после установки этого тэга, особенно интересует мнение статейников и контекстников...
вы походу не поняли, что это =)
есть одна страница доступная по 2м урлам.
вот на 1урл пишется, что он дубль и основная 2 страница (делается с помощью rel canonical). Это чтобы дублей не было.
страниц может быть сколько угодно.
А вот реально помогло кому то улучшить позиции статейных сайтов с этим тэгом?
canonical не для увеличения позиции, а для определения канонической страницы которая доступна по нескольким адресам. Чтобы не плодить дубли в индексе и бот правильно определил канонический адрес страниц.
Настройка канонических URL используется для закрытия страниц, которые содержат нечеткие дубли (частичные дубли) других страниц. Например страницы с ассортиментом товара, но с разной сортировкой. Так вот на всех страницах-сортировках прописывается канонические URL. Тоже самое можно сделать, настроив параметр Clean-param в robots.txt.
Был очень крупный портал недвижимости и там было очень много нечетких дублей для страниц с квартирами - много различных сортировок: по комнатам, цене, площади, удаленности от города и т. п. Проблема в том, что индекс замусорится такими ненужными страницы и из-за квоты индексации не могли в индекс попасть нужные страницы - целевые. Так вот после настройки - мусорные страницы выпали, а нужные зашли. Трафик сильно подрос.
реально всем советую, хорошая штука.
Более подробно читайте в справке Яндекса - там все очень хорошо написано
Попало в индекс много дублей от пагинации страниц. Год назад настроили этот тег, со всех страниц на первую. До сих пор в индексе "дубли", и они даже умудряются попадать в выдачу.
До сих пор в индексе "дубли", и они даже умудряются попадать в выдачу.
В Яндексе и Гугле есть инструменты по удалению ненужных урлов из индекса.
Плотно изучал этот вопрос, выслушал разные мнения. Несколько авторитетных оптимизаторов высказывали мнение, что каноникал не гарантирует на 100% защиту от нечётких дублей. Взамен было предложено внедрять на таких страницах мета ноуиндекс нофолоу.
В Яндексе и Гугле есть инструменты по удалению ненужных урлов из индекса.
Дак я их не удаляю, так как по ним есть некоторый трафик...Не знаю - стоит ли удалять...
Всё, что неканоническое - неиндексируется. По глупости однажды страницы пагинации сделал неканоническими и тем самым закрыл от индексации и хождения роботом. а как открыл, так получил прирост трафика. Для себя решил, что проще в robots убирать дубли и всё ненужное.
у вас есть большой текст который лежит на 3 страницах
сайт/страница1
сайт/страница2
сайт/страница3
по логике вещей, это одна страница но там тонна контента и вы ее или система разбила на три. rel canonical указывает для ПС что стр2 и стр3 не нужно индексировать, и основной для них является стр1
это если ну прям очень простым языком:)
хотя блин столько печатал а выше ответили уже)
вы походу не поняли, что это =)
И не только это.. ВП и без всяких плагинов каноникал прописывает правильно (кроме некстпейдж). А плагинами как раз это поведение может меняться.