- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени суток всем! В ГВМТ при тестировании sitemap.xml выдается предупреждение:
Файл Sitemap содержит URL-адреса, заблокированные robots.txt
Например Значение: http://сайт.biz/sitemapxml/000/000.xml
Удалил полностью robots.txt - указал Гуглу что его нет. Гугл выдал сообщение, что раз нету robots.txt то считает что можно сканировать все...
Сделал повторную проверку Sitemap - результат такой же...
В коде страниц ни каких проблем или ограничений нет. Тег роботс не использовался.
В чем может быть еще проблема и в какую сторону копать?
У Гугла бывает, особенно при переездах. Удалять robots было необязательно. Создайте новый robots.txt и скормите гуглу через ГВМТ, потом заново скормите sitemap.
Сделал повторную проверку Sitemap - результат такой же...
роботс нет и проверить нельзя. Вот так это работает :)
Перезалили сайтмап в заархивированном виде - такая же петрушка... куча ошибок.
Удалите урлы заблокированные в роботс из сайтмапа. И вопрос решится.