- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Обнаружила на сайте большое количество дублей со слешем. Закрыла в robots.txt дубли и добавила их в очередь на удаление. В следующий апдейт из индекс выпали и дубли со слешем и основные страницы без слеша. И сху..и спрашивается??!!! У кого-нить было подобное??
На сайте странице категорий продвигались без слеша, при этом большинство других страниц в индексе со слешем. Что посоветует делать с дублями?
Спасибо заранее за отклики.
Обнаружила на сайте большое количество дублей со слешем. Закрыла в robots.txt дубли и добавила их в очередь на удаление. В следующий апдейт из индекс выпали и дубли со слешем и основные страницы без слеша. И сху..и спрашивается??!!! У кого-нить было подобное??
На сайте странице категорий продвигались без слеша, при этом большинство других страниц в индексе со слешем. Что посоветует делать с дублями?
Спасибо заранее за отклики.
Дубли со слэшем не закрывают в роботсе, а настраивают редирект средствами сервера. Чтоб
ы все запросы страниц со слэшем редиректил на такие же, но без слэша.
Страницы наверняка выпадают потому, что вы неправильно "закрыли дубли" в роботсе, запретив индексацию страниц и со слэшем, и без. Покажите роботс хоть..
Robots был следующего содержания (удалила дубли из роботса после того как все страницы выпали):
Disallow: /pages/$
Disallow: /pages/services$
Disallow: /pages/news/1/9$
Disallow: /pages/articles$
Disallow: /pages/articles/1/10$
Disallow: /pages/articles/1/12$
Disallow: /pages/articles/1/8$
Disallow: /pages/articles/1/9$
Disallow: /pages/catalog$
Disallow: /pages/catalog/15/$
Disallow: /pages/catalog/16/$
Disallow: /pages/catalog/18/$
Disallow: /pages/catalog/19/$
Disallow: /pages/catalog/22/$
Disallow: /pages/catalog/24/$
Disallow: /pages/catalog/24/1/20$
Disallow: /pages/catalog/29/$
Disallow: /pages/catalog/30/$
Disallow: /pages/catalog/31/$
Disallow: /pages/catalog/32/$
Disallow: /pages/news$
Disallow: /pages/news/1/7$
Disallow: /pages/news/1/8$
Disallow: /pages/news/1/$
Disallow: /pages/articles/1/$
При этом из индекса, например, выпала страница /pages/catalog/15 и многие другие :(
ТС, правильно вам сказали, из роботса уберите запрет индексации дублей с "/" на конце, при этом настроив редирект на соотв. урлы без "/". Со временем канонические страницы вернутся в индекс, а дубли - нет.
Robots был следующего содержания (удалила дубли из роботса после того как все страницы выпали):
Disallow: /pages/$
При этом из индекса, например, выпала страница /pages/catalog/15 и многие другие :(
Первый раз вижу такую конструкцию =)
Значок $ применим лишь к собственно значениям, но не к разделителю уровней (слэш).
Вы явно запретили индексацию, поисковик выполняет.
Если сомневаетесь, всегда лучше проверять в яндекс.вебмастере, там специально инструмент есть в "Настройках индексирования", называется "Анализ роботс.тхт". Вбиваете адрес странички, жмете "Анализировать" и оно вам скажет, запрещена страничка в вашем роботсе или нет.
Это ведь читали? http://help.yandex.ru/webmaster/?id=996567
Хотя про слэши там не написано явно, afair...
А по проблеме с дублями - обратитесь к любому админу, чтобы настроил редиректы правильно на сервере.
Первый раз вижу такую конструкцию =)
Если сомневаетесь, всегда лучше проверять в яндекс.вебмастере, там специально инструмент есть в "Настройках индексирования", называется "Анализ роботс.тхт". Вбиваете адрес странички, жмете "Анализировать" и оно вам скажет, запрещена страничка в вашем роботсе или нет.
Я как раз и проверила в вебмастере не запретила ли случаем основные страницы. Вебмастер написал, что все ок, но страницы при этом удалил :((