Региональные поддомены и блог

12
Lazy Badger
На сайте с 14.06.2017
Offline
228
#11
luckylemon:
На остальных указывать что это дубли.

Кроссхостовый каноникал Яндекс не понимает, BTW

Производство жести методом непрерывного отжига
L
На сайте с 30.07.2019
Offline
7
#12
LazyBadger:
Кроссхостовый каноникал Яндекс не понимает, BTW

Ясно, спасибо за инфо по яндексу - почитаю доку. Тогда можно исключить дубли блога на регионах robots.txt

А вообще решение указать дубли я взял из доки гугла: https://support.google.com/webmasters/answer/66359?hl=en

Google does not recommend blocking crawler access to duplicate content on your website, whether with a robots.txt file or other methods. If search engines can't crawl pages with duplicate content, they can't automatically detect that these URLs point to the same content and will therefore effectively have to treat them as separate, unique pages. A better solution is to allow search engines to crawl these URLs, but mark them as duplicates by using the rel="canonical" link element, the URL parameter handling tool, or 301 redirects. In cases where duplicate content leads to us crawling too much of your website, you can also adjust the crawl rate setting in Search Console.
The WishMaster:
Каким образом?

Странное решение, мягко говоря.

Буду рад принять во внимание ваше решение. Как бы вы посоветовали решить нашу делемму? Описание в первом посте.

H
На сайте с 17.06.2020
Offline
1
#13


When it comes to gaining top rankings in search engine results, content is king. Search engines are driven by complex algorithms that reward user-friendly, quality websites with high rankings.


Vladimir SEO
На сайте с 19.10.2011
Offline
1929
#14
luckylemon #:

Спасибо за ответы. Решили дублицировать блог на всех поддоменах/регионах, но индексировать только на одном регионе. На остальных указывать что это дубли.

неверное решение


в блоге запросы гнз - по этому должен быть один блог на основном домене

Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
Vladimir SEO
На сайте с 19.10.2011
Offline
1929
#15
luckylemon #:

Ясно, спасибо за инфо по яндексу - почитаю доку. Тогда можно исключить дубли блога на регионах robots.txt

А вообще решение указать дубли я взял из доки гугла: https://support.google.com/webmasters/answer/66359?hl=en

Буду рад принять во внимание ваше решение. Как бы вы посоветовали решить нашу делемму? Описание в первом посте.

гугл поддерживает кросхостовый канон, а яша нет

почитайте про геозависимость запросов и поймете что блог будет показываться во всех регионах если будет хорошим


и да польза от блога будет минимальна даже при больших вложениях , а закрытый в роботсе вообще - бесполезная фигня

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий