- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
естественно!
для схожих страниц тег и предназначен:)
Народ, а кто ставил эксперимент и может доказать что дубли 100% влияют на выдачу?! Все мои проверки свелись к тому что Гуглу плевать на дубли. Я конечно понимаю, что народу хочется почистить дубли, код страницы от ошибок, навести полный порядок и радоваться чисто выполненной работе... Я тоже за чистоту и порядок в проектах и считаю что лучше не допускать их, как минимум потому что нагрузка на сервер меньше при сканировании ботами. Канноникал для того и предназначен, но он не поднимет ваш сайт в рейтинге, так же как и избавление от дублей. Зачем мусолить и дальше темы чистки исходного кода и движка от дублей, особенно для сайта у которого всего сотня страниц. Люди, у вас что полезных дел нет?
для схожих страниц тег и предназначен
только суют его, и для частично схожих. Про что я и писал выше.
Народ, а кто ставил эксперимент и может доказать что дубли 100% влияют на выдачу?! Все мои проверки свелись к тому что Гуглу плевать на дубли.
Да так плевать, что даже продвигаемую выплёвывает https://www.google.com/search?q=site:www.yandex.ru/m http://yandex.ru/yandsearch?text=url%3Awww.yandex.ru%2Fm*
Вот так Мэт Катс с Серёжей Брином ставят эксперименты. Лень повторять... чисто экономические причины такой вот их неразборчивости.
Рел=каноникал вместо 301 ... загружает бота и сеть лишним трафом, особенно если вы покажете боту сцылки на 1050 дублей.
Ну и добрые конкуренты смогут написать в выдаче, что вы гавно!
Да так плевать, что даже продвигаемую выплёвывает https://www.google.com/search?q=site:www.yandex.ru/m http://yandex.ru/yandsearch?text=url%3Awww.yandex.ru%2Fm*
Вот так Мэт Катс с Серёжей Брином ставят эксперименты. Лень повторять... чисто экономические причины такой вот их неразборчивости.
Рел=каноникал вместо 301 ... загружает бота и сеть лишним трафом, особенно если вы покажете боту сцылки на 1050 дублей.
Ну и добрые конкуренты смогут написать в выдаче, что вы гавно!
Есть примеры сайтов, где дублей, как блох у сучки и битый HTML, но сайт впереди планеты всей, с диким поисковым от гугла...
Но, видимо, не всех в боги записали :) Потому, лучше да, сносить дубли фтопку.
Этим дубли не устронятся. Устанавливайте СеоПро, он будет редиректить на каноническую страницу.
Что за бред? Почему это они не устранятся?
Да потому что одна и та же страница будет доступна по нескольким урлам, а сеопро будет редиректить и в итоге псы эти дубли склеят. Вот такой вот бред.
лучше при разработке - учесть данный фактор и убрать проблему дублей навсегда.
Да так плевать, что даже продвигаемую выплёвывает https://www.google.com/search?q=site:www.yandex.ru/m http://yandex.ru/yandsearch?text=url%3Awww.yandex.ru%2Fm*
Вот так Мэт Катс с Серёжей Брином ставят эксперименты. Лень повторять... чисто экономические причины такой вот их неразборчивости.
Рел=каноникал вместо 301 ... загружает бота и сеть лишним трафом, особенно если вы покажете боту сцылки на 1050 дублей.
Ну и добрые конкуренты смогут написать в выдаче, что вы гавно!
Но для указанных вами примеров необходимо условие что бы на дубли были внешние ссылки. Тем более нужный контент все равно в выдаче. А если внешних ссылок на дубли нет и у сайта нет десятка тысяч внутряка, может проще плюнуть на эту гипотетическую псевдоопасность и заняться полезным делом, как Яндекс )
Смотрю тут на форуме 90% оптимизаторов строят в корне неверные предположения относительно главных причин нелюбви Гугла к их сайтам, а дубли одно из самых больших заблуждений
Предлагаю пари на щелбанчик.
Я вам даю любую CMS, вы льёте туда некий уник.
Я утверждаю что сайт не взлетит не проиндексируется никогда.
Но для указанных вами примеров необходимо условие что бы на дубли были внешние ссылки. Тем более нужный контент все равно в выдаче.
Да, Гугл/Яндекс умный, он во фсём разберётся!
Нужны сцылки, конкуренты поставят, и /m/ вылетела... а если она продвигаемая?.. а вам могут ссылками продвигать дубли по самым левым запросам.
Да, контент в выдаче, но продвигаемая могла бы быть на лучших позициях, чем оставшийся в индексе мусор.
Есть примеры сайтов, где дублей, как блох у сучки и битый HTML, но сайт впереди планеты всей
Ранжируются не сайты, а документы. И лучше чтобы они не вылетали в процессе чистки закромов от #!дублей. Вы можете так никогда и не узнать, за что вылетели... поскольку серёжи брины в своих алгоритмах идут на какие-то упрощения, экономят ресурсы.
Нужны сцылки, конкуренты поставят, и /m/ вылетела... а если она продвигаемая?.. а вам могут ссылками продвигать дубли по самым левым запросам.
Да, контент в выдаче, но продвигаемая могла бы быть на лучших позициях, чем оставшийся в индексе мусор.
Ранжируются не сайты, а документы. И лучше чтобы они не вылетали в процессе чистки закромов от #!дублей. Вы можете так никогда и не узнать, за что вылетели... поскольку серёжи брины в своих алгоритмах идут на какие-то упрощения, экономят ресурсы.
У Вас ключевые слова в рассуждениях "могли бы", "если бы", "какие то". У вас сообщений выше крыши, должен был уже конкретно знать, что и за чем. Гугл это всего лишь алгоритм. Да, часто меняется но алгоритм.
Вот давайте сейчас начнем злостно бороться с зелеными человечками, а вдруг прилетят )
С другой стороны может это такая тактика борьбы с конкурентами - максимально запудрить мозги начинающим и бестолковым оптимизаторам, что бы вместо продвижения занимались всякой ахинеей, тогда - да, поддерживаю борьбу с дублями )