- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
При обновлении ошибочно закрыли от индексации весь сайтв robots.txt Гугл успел съесть этот файл.
Вопрос- как можно обновить или ускорить, чтобы Гугл взял текущий robots.txt?
В яндекс вебмастере есть кнопка- загрузить роботс с сайта. В гугл вебмастере не нашел такого.
И в сервесе "Просмотреть как Googlebot" роботс при загрузке имеет статус "Запрещено в файле robots.txt", что логочино. Но не будет ли проблем с обновлением этого файла?
у меня тоже такое было, просто подождал и никаких проблем
как можно обновить или ускорить, чтобы Гугл взял текущий robots.txt?
никак, только ждать. Гугле бот не вывешивает расписания когда прийдет в следующий раз.
При обновлении ошибочно закрыли от индексации весь сайтв robots.txt Гугл успел съесть этот файл.
Как Гугл ещё раз зайдёт, так прочитает. Чтобы зашёл быстрее, попробуйте кинуть ссылку на какую-нибудь страницу вашего сайта на ресурс, который Гугл часто посещает.
вы логи сайта смотрели хоть раз? гугл кушает robots.txt по 10-30 раз в день
Всем спасибо, скушал:) скармливаю страницы..
Уменя тоже бывает просто жду и дубли выпадают тоже тупо ждать.
гугл кушает robots.txt по 10-30 раз в день
он его кушает перед сканированием сайта. А вот попробуйте в нем закрыть сайт сколько времени займет повторное включение на сканировани и индексацию? У меня 2-е суток для нового сайта заняло.
тоже тупо ждать
Траф просел - процентов на 80, некогда ждать :)
У меня 2-е суток для нового сайта заняло.
Часа за 2 обновился, если сообщение в вебмастерке верное.
Меня печалит, что некоторые страницы имеют статус- запрещен в robots.txt
Попробую ссылок добавить на важные урлы.
некоторые страницы имеют статус- запрещен в robots.txt
а говорите "обновился" :)
а говорите "обновился"
В вебмастерке обновился. Некоторые страницы вернулись, позиции возвращаются.
Робот должен зайти на страницу, чтобы она вернулась в индекс :)