- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
вот есть сайт, у него есть 2 вида категорий
site.com/lol
и
site.com/lol?lang=ru
Это всё единая категория, но проблема в том что это создаёт дубль, гугл их видит.
Решения проблемы:
rel canonical
301
Эти варианты мне понятные, но меня интересует как заблокировать такую страницу чисто robots.txt, для меня этот вариант в данный момент более правильный, ибо структура сайта довольно сложная.
Буду очень рад за помощь!
---------- Добавлено 22.06.2018 в 16:21 ----------
Короче разобрался, сделал так
Disallow: *?lang=ru* роботс тхт показывает что всё ок, страницы закрыты ☝
Если подходит вариант заблокировать все страницы содержащие "?lang=ru" используйте:
Disallow: /*?lang=ru*
Если нужно заблокировать только "/lol?lang=ru" используйте:
Disallow: /lol?lang=ru*
Есть страница вида:
www.site.ru/categ/group1 - она должна быть в индексе
www.site.ru/categ/group1/что_угодно - нужно запретить индексацию в robots.txt
Помогите с тем, как корректно это сделать, чтобы первая ссылка тоже не улетела?
Ну если страница и правда www.site.ru/categ/group1 без слеша, то можно закрыть /categ/group1/
Чтобы не улетело - сразу проверяете в вебмастере.
УФФФФ - как же их много :)
А реально написать строку, запрещающую далее определённого уровня вложенности?
/categ/group1 - 2й уровень - можно
/categ/group1/что угодно - 3й уровень запретить
/categ/group1/что угодно/что угодно2 - 4й уровень запретить
Если подходит вариант заблокировать все страницы содержащие "?lang=ru" используйте:
Disallow: /*?lang=ru*
Если нужно заблокировать только "/lol?lang=ru" используйте:
Disallow: /lol?lang=ru*
я сделал
Disallow: *?lang=ru* без / вначале, роботс говорит что заблокировано, не врёт ведь, верно ?
А что за привычка такая дурная пошла - ставить в конце звездочку?
Возник вопрос, а каким образом seo специалисты узнают об изменении в поведении поискового робота, только лишь по результатам показателей работы сайта или есть какие-либо публикаци?
Возник вопрос, а каким образом seo специалисты узнают об изменении в поведении поискового робота, только лишь по результатам показателей работы сайта или есть какие-либо публикаци?
Ну:
1. Часто яндекс сам пишет;
2. А когда он пишет или не пишет и все через одну точку - можно определить по количеству страниц в топике об апе.
Это так, что вам доступно.
p.s. причем тут robots.txt?
Спасибо, я пока мало знаю, возможно вопрос не в ту тему кинула.
Привет!
Такой вопрос: как правильно прописать в файле robots запрет на индексацию страниц вложений wordpress, с учетом того, что страницы у меня имеют ссылки с русскими буквами по типу site.com/публикация-1/
Получается, простым Disallow: /*.html/* не получится сделать запрет, ведь .html по сути нету и у меня получилось, что Яндекс вогнал в индекс много не нужных