- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Последние изменение в robots.txt вносил 8 месяцев назад. Сегодня Google Webmaster предупредил, что "Некоторые важные страницы блокируются в файле robots.txt.".
Захожу в "инструмент проверки robots.txt, там "Ошибок: 0 Предупреждений: 0". Что это за дела такие?
в заблокированных ресурсах надо искать
в заблокированных ресурсах надо искать
В заблокированных? А можно чуток подробнее?
Недавно обратил внимание что Google просканировал сайт по IP, как зеркало. Поставили заглушку, что бы не индексировал. Может это связано?
/ru/forum/925254
в консоли Индекс Google - Заблокированные ресурсы
там смотрите что заблокировано и откройте это в robots
У меня такая же ерунда, ничего в роботсе не менял уже пару лет, просто вылезло предупреждение - "Некоторые важные страницы блокируются в файле robots.txt.". Думаю какая то ошибка в Search Console.
Роботс вручную проверяю все в порядке, страницы доступны.
Возможно, блокируются скрипты и стили. Вот и папка templates запрещена.
Тоже столкнулся с этой проблемой. Вот ссылка на топик:
/ru/forum/925793
мне кажется, что тупит консоль.
тоже самое на двух сайтах, в роботсе не менял давненько доступ к цсс и джава скрипте открыл давно
убрал из роботса практически вообще все, оставил только определенные страницы индексировать
алерты не исчезли
) так тож инструмент для проверки правильности составления самого файла роботс.тхт
- откройте доступ через "Allow:" в этом каталоге, где у него пути шаблона к стилям и скриптам.
Для Гугла надо обязательно открывать все каталоги, откуда подтягиваются скрипты и стили, для отображения страниц.
К примеру у меня была проблема из-за индексации страниц с товаром (сама карточка). Оказалось гугл не мог вытащить скрипт "звёздочки-оценки", капчу (отзыв когда написать) Капчу вот по этому адресу: /index.php?route=product/product/captcha&rand=7821 которая там находится на странице. А в роботсе стоит запрет на все вариации с этим "index.php".
Вот он встерчал запрет, и не индексировал как надо страницу. Как-то через что-ли. Замечено было в начале января этого года!
И вообще, тут на форуме не раз поднимались проблемы с этим роботс.тхт для гугла: он не получает доступ к страницам запрещённым, но всё одно их тащит в свой индекс пачками! И пишет потом в выдаче где дискрипшн - страница недоступна из-за файла роботс
Поэтому дубли, пагинации, сортировки, нужно блочить для гугла только тегом <meta name="robots" content="noindex, nofollow" />
или заголовком от сервера - X-Robots-Tag: noindex,nofollow (через .htaccess или php)
А вот для Яндекса пагинации, сортировки, дубли - всё запрещать в роботс.тхт
Захожу в "инструмент проверки robots.txt, там "Ошибок: 0 Предупреждений: 0". Что это за дела такие?
На странице robots.txt нажмите "Проверить". Вебмастер подсветит больное место. Скрин http://clip2net.com/s/3uzKhbr .
у меня ничего не подсвечивает, половина сайтов с "ошибкой" половина нет. Забил на это, глюк скорее всего