- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем добра. Прилетело на несколько сайтов сообщение в Яндекс Вебмастере о том что некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров). Помогите пжлст прописать эту директиву в Robots.txt. У самого ничего не получается, при проверке в Вебмастере файла robots.txt пишет, что директива Clean-param не корректна.
Я так понял, что этот GET-параметр общий для разных URL у меня ?_gl=1* потому что url которые приводятся в примере выглядят так:
https://domen. ru/названиепоста1/?_gl=1*3xanjz*_ga*YW1wLVJsY3VaUFNoLWxXdEtuby11enR6aFRSNWsyRWdROEJQZy1iUDktbE1XTjBlQXlENE5VWTgyaWpyRF9CdlpJQmo.
https://domen. ru/названиепоста2/?_gl=1*nw6dru*_ga*YW1wLWlGbnhDTlJ6WUdBdFYyMktORks5MTJFRERZRmZ6LWxzbXpCUmJNLVRiOHBTTjdpMDRyazFlcGFaTksxUUpZeDk .и т.д. т.е. после обычного url добавляется ?_gl=1* + набор знаков какой-то
Подскажите пожалуйста как правильно прописать директиву Clean-Param в robots.txt, чтобы ушла критичная ошибка из Вебмастера. Всем большое спасибо, кто откликнется
Некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров). Например, https://example.com/tovary?from=mainpage дублирует https://example.com/tovary.
Имеется ввиду что https://domen. ru/названиепоста1/?_gl=1*3xanjz дублирует просто https://domen. ru/названиепоста1
Поэтому думаю правильно
Clean-param: _gl /названиепоста1
Clean-param: _gl /названиепоста2
Имеется ввиду что https://domen. ru/названиепоста1/?_gl=1*3xanjz дублирует просто https://domen. ru/названиепоста1
Поэтому думаю правильно
Clean-param: _gl /названиепоста1
Clean-param: _gl /названиепоста2
Спасибо большое, но таких постов штук 50, не хотелось бы так роботс засирать. Я имел ввиду, что может быть можно одно правило прописать для всех постов?
А так что нельзя запретить эти страницы к индексированию?
User-agent: *
Disallow: /*?
Или у тебя есть страницы начинающиеся со знака вопроса, которые нужно индексировать?
Можно и так закрыть...
Disallow: /*?_gl=1
Clean-param: _gl /*
Clean-param: _gl /*
Путь можно не указывать.
Такая же ошибка прилетела в вебмастер
У меня url примера выглядит так:
https://domen.ru/категория/название поста?unapproved=8040
(без / как в примере выше)
Значит мне нужно прописать в роботс:
User-agent: Yandex
Clean-param: ?unapproved=
или
User-agent: *
Disallow: *?unapproved=
?Подскажите
В справке яндекса прописано что для Clean-param нельзя использовать знаки вопроса
Значит в моем случае нужно прописать:
User-agent: *
Disallow: *?unapproved=
??
В справке яндекса прописано что для Clean-param нельзя использовать знаки вопроса
Чика, а до конца справку прочитать - "многобукаф"?!
и фсе! Щассте...
Чика, а до конца справку прочитать - "многобукаф"?!
и фсе! Щассте...
Хамский тон смени😡 Lazy
За код спасибо.