- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день!
Сайт – ИМ на Bitrix.
Столкнулись с тем, что в Google (и только в нём) все страницы раздела /brands/, будучи проиндексированными, в сниппетах показывают такое:
Google указывает, что страница (все страницы раздела) заблокированы в robots.txt. Но на самом деле это не совсем так. В robots прописана директива Disallow: /brands/*?, блокирующая все урлы в разделе, содержащие "?". Ровно то же самое прописано для всего раздела /catalog/, у которого со сниппетами в выдаче всё нормально. Повторяю, проблема справедлива только для Google.
Вопрос: в чём ошибка?
P.S. Бренды, кроме того, выведены в отдельный sitemap, который прописан в robots. Это для информации.
Robots:
пользуйтесь на здоровье
https://www.google.com/webmasters/tools/robots-testing-tool
пользуйтесь на здоровье
https://www.google.com/webmasters/tools/robots-testing-tool
В том и фикус, что раздел в Роботс определяется валидатором как доступный
В том и фикус, что раздел в Роботс определяется валидатором как доступный
а страницы проверяли ?
Да, конечно. Они все в индексе, только сниппетов Гуглу не отдают.
И Гугл указывает на запрет в роботс. А валидатор показывает обратное.
Да, конечно. Они все в индексе, только сниппетов Гуглу не отдают.
И Гугл указывает на запрет в роботс. А валидатор показывает обратное.
Вопрос: в чём ошибка?
Да у вас весь robots - одна сплошная ошибка с непредсказуемой обработкой.
Уберите лишние строки-пробелы. Allow ставьте после Disallow.
Да и собственно ваша директива - это запрет на содержимое раздела, а не параметров. То, что у вас аналогичное в "каталоге" проиндексировано нормально - скорее, потому, что там раздел важный, и не благодаря, а вопреки robots - Гугл его склонен игнорировать, если что-то не срастается.