- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сегодня Гугл выдал ошибку о том, что sitemap заблокирован в robots.txt (раньше таких ошибок не было). При анализе robots.txt в вэбмастере Google напротив строки с sitemap следующее: "Обнаружены данные о действительном файле Sitemap".
С картой сайта действий не проводилось, в роботс периодически добавляю дубли страниц (чтобы удалились через вебмастер).
Кто знает причину такой вот фигни и как её решить? Я так понимаю, что карту сайта Гугл пока индексировать не будет. Какие могут быть последствия?
Сегодня Гугл выдал ошибку о том, что sitemap заблокирован в robots.txt (раньше таких ошибок не было). При анализе robots.txt в вэбмастере Google напротив строки с sitemap следующее: "Обнаружены данные о действительном файле Sitemap".
С картой сайта действий не проводилось, в роботс периодически добавляю дубли страниц (чтобы удалились через вебмастер).
Кто знает причину такой вот фигни и как её решить? Я так понимаю, что карту сайта Гугл пока индексировать не будет. Какие могут быть последствия?
содержимое роботс.тхт в студию!
содержимое роботс.тхт в студию!
http://euroeducation.com.ua/robots.txt
Роботс большой, знаю, но пока не критичный и это временные меры - дубли удалятся из поиска - почищу. Но sitemap почему запрещён?
Из-за этой строки Disallow: /index.php?* попадает под запрет sitemap.
Из-за этой строки Disallow: /index.php?* попадает под запрет sitemap.
Эта строка закрыла сотни дублей (их действительно раньше были сотни). Как в таком случае решить вопрос? И почему только в Гугле? (Яндекс ошибку не выдаёт). И почему именно вчера появилась ошибка, а строку я прописал пару месяцев назад?
---------- Добавлено 13.05.2013 в 07:05 ----------
Попробовал следующее: убрал в robots строку Disallow: /index.php?*, повторно попробовал скормить карту сайта - выдаёт туже ошибку о запрете в robots.
Зачем вы убрали "Disallow: /index.php?*"? Вам подсказали место проблемы, но не говорили что ее надо вырезать под корень. Верните его назад, если помогало для других бед.
Теория: Гугл правила Robots.txt, для проверки работы чужого файла Robots.txt удобно использовать ЯВМ.
Практика:
Вариант 1:
в Robots.txt заменяем
На
Вариант 2: Пытаемся изменить в движке адрес Sitemap на обычный статический. Может и не выйти.
повторно попробовал скормить карту сайта - выдаёт туже ошибку о запрете в robots.
Скорое всего ваши изменения в Robots.txt еще не скушал Гугл. Проверить в вебмастере что он видит в файле Robots.txt.
Убирать не надо это правило, а нужно чтобы Xmap выдавал адрес карты в виде http://site.ru/sitemap-xml.html . Давно как-то уже делал, сейчас не помню то ли этот адрес сразу можно получить или в настройках Xmap покопаться.
Зачем вы убрали "Disallow: /index.php?*"? Вам подсказали место проблемы, но не говорили что ее надо вырезать под корень. Верните его назад, если помогало для других бед.
Ясное дело, что верну, это я в качестве эксперимента убрал на день-два, пока Гугл карту не схавает (проверю, сколько это действительно времени занимает, а за пару дней новых дублей наплодиться не успеет).
---------- Добавлено 13.05.2013 в 22:27 ----------
Убирать не надо это правило, а нужно чтобы Xmap выдавал адрес карты в виде http://site.ru/sitemap-xml.html . Давно как-то уже делал, сейчас не помню то ли этот адрес сразу можно получить или в настройках Xmap покопаться.
Читал на других форумах, что на такой url карты сайта какой-то из поисковиков очень ругается, если его в роботсе прописать (вроде Яндекс, но не уверен).