- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Коллеги помогите плиз.
При попытке добавления sitemaps для гугла через некоторое время выводиться ошибка что Сеть недоступна: Невозможно получить доступ к файлу robots.txt.
У меня подозрение на хостера, что то у них в последнее время с доступностью лажа.
Как проверить видит ли физически гугл сайт или нет? Нужны доказательства чтобы ткнуть носом хостера, а то они меня постоянно отфутболивают и говорят что у них все нормально и сайт виден.
Яндекс видит сайт нормально, индексирует без проблем, а с гуглом в последнее время проблемы начались. Ссылки в базе есть а в кеше страниц нет.
Помогите пожалуйста, а то я уже не знаю что делать:confused:
неужели никто не может помочь? 😕
ни у кого не было подобной проблемы?
А что у вас в роботсе написано? И какие на нем права?
А что у вас в роботсе написано? И какие на нем права?
В файле
User-agent: *
Disallow:
По правам полностью доступен
Попробуйте Гугл вебмастер тулз. В принципе там можно проверить правильность роботс файла, частоту индексации и если сайт был какое-то время недоступен для гугля. Думаю этого будет достаточно, чтобы хостера ткнуть носом.
Попробуйте Гугл вебмастер тулз. В принципе там можно проверить правильность роботс файла, частоту индексации и если сайт был какое-то время недоступен для гугля. Думаю этого будет достаточно, чтобы хостера ткнуть носом.
там инфа что последний успешный доступ робота Google к главной странице выполнен 09.05.2007.
А файл robots.txt загружено в последний раз 18.05.2007 г
При попытке добавления sitemaps пишет тоже что сайт недоступен и ошибка доступа к robots.txt.
Означает ли это что сайт недоступен ботам гугла?
Можно еще попробовать какой-нибудь эмулятор гугльбота. Один есть в пакете Internet Business Promoter (IBP). Он покажет что и как на сайте может увидеть гугль и куда он может пройти.
Но лично я webmaster tools доверяю и просто предъявил бы эти данные хостеру.
Попробуйте проанализировать логи на сервере, может это прольет свет на проблему.
Удачи!