Подскажите по какому принципу?
Вот у меня с сайтом похожая ситуация. Подскажите как лучше.
Есть сайт site.net
Языковые версии реализованы следующим методом site.net/ru/ - продвижение на СНГ и site.net/en - продвижение на Европу.
Как быть для лучшего продвижения? Может лучше сделать субдомен типа en.site.net - и в hreflang прописать en-GB, en-DE и т.д. а для домена site.net - hreflang - ru-RU, ru-ua. Или просто реализовать данные манипуляции для hreflang на site.net/ru/ и site.net/en?
И еще возможно ли реализовать перевод URL например site.net/ru/konteinery/plastikovie site.net/en/containers/plastic. Или это возможно только в таком случае: en.site.net/containers/plastic, и site.net//konteinery/plastikovie ?
Ну если это как вы говорите статьи, то по моим наблюдениям чаще всего используют вариант (2) Прописывать в URL название статьи(содержит лишь ключ)) тут все равно разбавка ключа идет другими фразами, и так как бы людям удобнее, правда главное что бы оно там слишком длинное не было, это название.
Можно уточнить переспам чего вы имеете в виду? Одного и того же слова в урле несколько раз?
Так у меня количество падает.
При этом было то раньше все ОК.
Да и контент уникальный у нас.
14 символов, и тем не менее количество проиндексированных упало до 776
хотя в сайтмапе 874.
А если в Гугл прописать site:site.com то 1050.
Но вопрос тот же почему выпадают страницы? Каким показателям верить? Что еще проверить?
Здравствуйте
Да ставили 301.
Уже 309. Точно не волноваться?
А то как то странно что количество все падает и падает.
Кстати да ЧПУ меняли. Тогда и сайтмап поменяли, но не все новые адреса в сайтмап попали. Может новый сайтмап сделать?
Ребят, ну ведь кто то же из вас делал вкладки с помощью Woobox Apps. Как то же вы их рекламировали.
Подскажите пожалуйста.
oleber,
У tak-mojno.ru и vamvpomosh.ru у каждого свои robots.txt должны быть ведь это все ровно разные сайты.
Значит в robots.txt который относиться к tak-mojno.ru
Disallow: */vamvpomosh.ru/*
только проверьте есть ли страница http://www.vamvpomosh.ru/ok_virus.php я бы еще в хтачес с http://www.tak-mojno.ru/vamvpomosh.ru/ok_virus.php на http://www.vamvpomosh.ru/ok_virus.php 301 редирект сделала бы, если уж они уже в индексе.
Вы в Вебмастере покликайте и посмотрите точно что у вас заблокированно, там есть такая возможность должно быть написано РЕСУРС: и адрес что именно у Вас блокирует. "?" может быть и не в дублях, у меня он в картинках (getimg.php?img_url=/images/img_item/orig_201512037507.jpg&w=170&proportions=2&crop=0).
Что бы заблокировать дубли в вашем случае «site.ру/?p=123» написать нужно так: Disallow: /?p=*
Это что, и где и в каком файле роботс Вы блокируете?