- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как дата-аналитику правильно презентовать себя будущему работодателю
Что рассказывать и показывать в портфолио
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Получил такое сообщение
Google couldn't crawl your site because we were unable to access your site's robots.txt file
Мой robots.txt
User-agent: *
Allow: /
Host: site.name
Sitemap: http://site.name/sitemap.xml
Не могли бы вы подсказать как решить проблему?
Получил такое сообщение
Google couldn't crawl your site because we were unable to access your site's robots.txt file
Мой robots.txt
User-agent: *
Allow: /
Host: site.name
Sitemap: http://site.name/sitemap.xml
Не могли бы вы подсказать как решить проблему?
У вас сайт закрыт для индексации.
Сделайте так:
У вас сайт закрыт для индексации.
Сделайте так:
Простите, как это закрыт? Посмотрите, пожалуйста, на этот топик, я спрашивал
/ru/forum/907584
Это мне неправильно написали что ли?
Чтобы запретить доступ робота к сайту или некоторым его разделам, используйте директиву Disallow.
Disallow: / # блокирует доступ ко всему сайту
Чтобы разрешить доступ робота к сайту или некоторым его разделам, используйте директиву Allow.
Allow: / # разрешает доступ ко всему сайту
Если директивы не содержат параметры, робот учитывает данные следующим образом:
User-agent: Yandex
Disallow: # то же, что и Allow: /
User-agent: Yandex
Allow: # то же, что и Disallow: /
Поэтому, впринципе, у вас правильно составлен robots
---------- Добавлено 29.08.2015 в 19:11 ----------
Получил такое сообщение
Google couldn't crawl your site because we were unable to access your site's robots.txt file
проблема в другом - Google не может сканировать ваш сайт, потому что он не смог получить доступ к файлу robots.txt вашего сайта
Проверьте, может в названии файла ошибка.
Простите, как это закрыт? Посмотрите, пожалуйста, на этот топик, я спрашивал
/ru/forum/907584
Это мне неправильно написали что ли?
проверьте правильность составления robots в гугл и яндекс вебмастерах. если ошибок нет пишите хостеру своему, видно он на сервере закрыл доступ гуглу чтоб робот гугл не создавал больших нагрузок на сервер, или поменяйте хостинг
Получил такое сообщение
Google couldn't crawl your site because we were unable to access your site's robots.txt file
Мой robots.txt
User-agent: *
Allow: /
Host: site.name
Sitemap: http://site.name/sitemap.xml
Не могли бы вы подсказать как решить проблему?
Можно ссылочку в личку?
Можете еще посмотретькак выглядит файл в гугл вебмастер панели. Может там еще старая версия осталась.
Простите, как это закрыт? Посмотрите, пожалуйста, на этот топик, я спрашивал
/ru/forum/907584
Это мне неправильно написали что ли?
https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml
Futuris,
Если вы используете описание структуры сайта с помощью файла sitemap, укажите путь к файлу в качестве параметра директивы Sitemap (если файлов несколько, укажите все). Пример:
User-agent: Yandex
Allow: /
Sitemap: http://mysite.com/site_structure/my_sitemaps1.xml
Sitemap: http://mysite.com/site_structure/my_sitemaps2.xml
Робот запомнит путь к файлу, обработает данные и будет использовать результаты при последующем формировании сессий загрузки.
Источник
Ну вот товарищ Futuris снинул ссылочку, где действительно написано, что
Подождите, в гугл суппорте прочитал, что
Может тогда лучше вообще его не создавать?
Ну вот товарищ Futuris снинул ссылочку, где действительно написано, что
вы читайте внимательно его сообщение в контексте чего файл является корректным. Я специально привёл похожий пример из того же документа. Где файл также корректен. Улавливаете смысл?
вы читайте внимательно его сообщение в контексте чего файл является корректным. Я специально привёл похожий пример из того же документа. Где файл также корректен. Улавливаете смысл?
Блин, не совсем... Я не понимаю, почему он написал, что сайт закрыт к индексации, ведь судя по тому, что я прочитал - это же не так...
В общем, я могу просто убрать robots.txt совсем? Хуже ведь не будет по идее. Ничего закрывать от индексации мне по идее не нужно