- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
После того, как Google перешел на новую ПУ, стал замечать массу странностей. Одна из них связана с тем, что если открыть подробности любой страницы, то в ней указано: "Страница проиндексирована, но ее нет в файле Sitemap". Выглядит это таким образом:
Открываю файл sitemap.xml и нахожу там все страницы, которые указаны как отсутствующие в сайтмапе.
Более того, открываю подробности о сайтмапе в ПУ, и вижу, что "Файл Sitemap успешно обработан" и отсутствие каких-либо ошибок. Число записей в sitemap.xml точно соответствует числу статей на сайте. Причем дата последней обработки файла всегда свежая:
Так что это за ерунда такая? Почему в подробностях всех страниц указано, что в файле sitemap.xml они отсутствуют, хотя они там есть и сам файл успешно гуглом обрабатывается?
потому что консоль всю жизнь глючит и все уже привыкли , ждите
потому что консоль всю жизнь глючит и все уже привыкли , ждите
Так спрашивается нафига такая консоль, если в ней не отражается реально положение вещей?
Так спрашивается нафига такая консоль, если в ней не отражается реально положение вещей?
Да тоже заметил, что консоль глючит. Гугл что то чудит вообще.
Так спрашивается нафига такая консоль, если в ней не отражается реально положение вещей?
Надеюсь это риторический вопрос
После того, как Google перешел на новую ПУ, стал замечать массу странностей. Одна из них связана с тем, что если открыть подробности любой страницы, то в ней указано: "Страница проиндексирована, но ее нет в файле Sitemap". Выглядит это таким образом:
Открываю файл sitemap.xml и нахожу там все страницы, которые указаны как отсутствующие в сайтмапе.
Более того, открываю подробности о сайтмапе в ПУ, и вижу, что "Файл Sitemap успешно обработан" и отсутствие каких-либо ошибок. Число записей в sitemap.xml точно соответствует числу статей на сайте. Причем дата последней обработки файла всегда свежая:
Так что это за ерунда такая? Почему в подробностях всех страниц указано, что в файле sitemap.xml они отсутствуют, хотя они там есть и сам файл успешно гуглом обрабатывается?
У меня так и не прошла эта болячка. На одном сайте - ок отображает, на другом - вот такая лабуда уже с полгода точно.
Всем спасибо, а то я уж думал это с сайтами что-то не так. Ибо я начал анализировать индексацию в ПУ после перевода своих сайтов на https - думал может затык какой с sitemap )
Всем спасибо, а то я уж думал это с сайтами что-то не так. Ибо я начал анализировать индексацию в ПУ после перевода своих сайтов на https - думал может затык какой с sitemap )
Есть еще один глюк, если много js и css, то он может при анализе все не кушать, и писать, что страница не оптимизирована под мобильные устройства.
Хрень выкатили полную. Раньше, чтобы страничку в индекс добавить, раз, два и готова. Сейчас будешь 3 минуты ползунок анализа страницы наблюдать...
Есть еще один глюк, если много js и css, то он может при анализе все не кушать, и писать, что страница не оптимизирована под мобильные устройства..
Такое и раньше задолго до новой ПУ было. Я всегда ряд прогонов делал - на 3-4 раз показывало, что всё оптимизировано )
Есть еще один глюк, если много js и css, то он может при анализе все не кушать, и писать, что страница не оптимизирована под мобильные устройства.
Хрень выкатили полную. Раньше, чтобы страничку в индекс добавить, раз, два и готова. Сейчас будешь 3 минуты ползунок анализа страницы наблюдать...
блин, я два рабочих дня убил, пробуя как то победить эту проблему. Робот тупо не грузит css и js (ошибка - "другая ошибка", без пояснений), получает кривой снэпшот страницы и ставит по всем страницам "не оптимизирована для мобильных", при том что роботс.тхт все отдает боту.
Но пересканить всю пачку тоже не отдает - ругается на рандомную статью и останавливает процесс.
Как это вообще победить?)) Пробовал и шаблоны менять, и кеширование с лезилоад отключать, и роботс убирать совсем, и даже клон сайта ему показывал - и там не ругался.
При этом на их же сервисе https://search.google.com/test/mobile-friendly - все ок, всегда все удобно)) А такой же чекер в консоли - постоянно ругается.
блин, я два рабочих дня убил, пробуя как то победить эту проблему. Робот тупо не грузит css и js (ошибка - "другая ошибка", без пояснений), получает кривой снэпшот страницы и ставит по всем страницам "не оптимизирована для мобильных", при том что роботс.тхт все отдает боту.
Но пересканить всю пачку тоже не отдает - ругается на рандомную статью и останавливает процесс.
Как это вообще победить?)) Пробовал и шаблоны менять, и кеширование с лезилоад отключать, и роботс убирать совсем, и даже клон сайта ему показывал - и там не ругался.
При этом на их же сервисе https://search.google.com/test/mobile-friendly - все ок, всегда все удобно)) А такой же чекер в консоли - постоянно ругается.
На проверку отправляйте страницы с ошибками. Но она то ж неделями может проходить.