- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени суток
Добавил сайт в поисковую консоль гугла около 2 недель назад, сразу же до кучи отправил сайтмап. Все производилось в новой версии консоли. Все это время в статусе светиться "Не Получено", а при открытии подробностей сообщение:
Общая ошибка HTTP
При попытке доступа к вашему файлу Sitemap произошла ошибка. Убедитесь, что этот файл Sitemap соответствует нашим правилам и находится в указанном местоположении, а затем отправьте его повторно.
Карта сайта генерируется через Yoast, без каких-либо модификаций из вне и разбита на несколько подкарт (посты, категории, страницы). Пробовал отправлять повторно, вставлять сразу подкарты - ситуация аналогична. В старой версии консоли статус "В ожидании". При проверке через гугловский инструмент:
Сведения об ошибках: Ошибки отсутствуют.
В индексе все еще не попала ни одна страница сайта (сайт по питанию, зона .com, материал англоязычный (консоль русская)). По логам, гуглобот часто запрашивает robots.txt, ads.txt. Один раз запросил карту сайта (если не изменяет память, это время совпало с тем, когда я повторно ее отправил через консоль). Примеры запросов:
При переотправке и проведении проверки в инструменте:
66.249.69.20 - - [22/May/2018:20:06:07 +0200] "GET /sitemap.xml HTTP/1.1" 301 5 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
66.249.69.24 - - [22/May/2018:20:06:07 +0200] "GET /sitemap_index.xml HTTP/1.1" 200 327 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
66.249.69.20 - - [22/May/2018:20:06:08 +0200] "GET /sitemap.xml HTTP/1.1" 301 5 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
66.249.69.20 - - [22/May/2018:20:06:09 +0200] "GET /sitemap_index.xml HTTP/1.1" 200 327 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
66.249.69.22 - - [22/May/2018:20:06:10 +0200] "GET /sitemap.xml HTTP/1.1" 301 5 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
66.249.69.22 - - [22/May/2018:20:06:10 +0200] "GET /sitemap_index.xml HTTP/1.1" 200 327 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
66.249.69.22 - - [22/May/2018:20:06:11 +0200] "GET /sitemap_index.xml HTTP/1.1" 200 327 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
robots.txt:
На сервере используются редиректы с www на не-www и с не-www на https не-www.
Были ли у кого-то еще подобные проблемы и в какую сторону можно покопать? Заранее благодарю.
Сайту всего 2 недели? Зарегистрировали домен и добавили?
Домену уже около месяца, то что проблема во времени пока единственный вариант, но почему тогда отображается ошибка в карте сайта?
Сам столкнулся с подобной проблемой. Удалось ли ее решить? Если да, то как?
Тут плагин креативит файлы виртуально, а роботы бывают не видят файлы, когда их физически нет в положенном месте.
Как временная мера - сохраняю вручную и кладу в корень.
Эта проблема началась для некоторых новых сайтов сразу же после появления бета версии нового интерфейса консоли с полгода назад. В консоли sitemap.xml висит сообщение "pending" месяцами. У меня ради теста уже месяца 3 один сайт такой. На форуме google для вебмастеров тупо смеются с людей, направляют читать справку, типа, у них все работает. На самом же деле, чтобы заработало, нужно вместо sitemap.xml создать sitemap.txt с адресами простым списком - сразу же заработает :)
http://mydomain.com/page1.html
http://mydomain.com/page2.html
http://mydomain.com/page3.html
...
Заметил, что в шапке xml файла генерируется ссылка на xls файл в виде href="//site.com/.../main-sitemap.xsl"
Возможно в этом корень проблем. Ведь ссылка должна быть или относительной или абсолютной, а тут какой-то уродец.
нужно вместо sitemap.xml создать sitemap.txt
Где создать?
Видимо в корне сайта и скормить туда в виде простых ссылок то, что нагенерил плагин.
Где создать?
На своем сайте создать, и добавить его в google webmasters в разделе sitemaps. Google понимает карты сайта в txt формате обычным списком. Он сразу определит ссылки и начнет индексировать. Никакого pending не будет :)
Экспериментирую с ГуглБотом. Заметил, что плагин Акисмет (антиспам) имеет на него влияние. Деактивировал его. Всеравно комменты не юзаю, а рекапча с форм7 и без него корректно работает. Заслал сайтмапы заново. Жду результата.
Google понимает карты сайта в txt формате обычным списком.
А Яндекс понимает? И как же быть со всякой дополнительной инфой из сайтмапа?
---------- Добавлено 22.08.2018 в 00:30 ----------
href="//site.com/.../main-sitemap.xsl"
ссылка должна быть или относительной или абсолютной, а тут какой-то уродец.