- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Спецпроект в Retail Media: как удержать каждого третьего посетителя лендинга
Кейс рекламной платформы СберМаркета
Оксана Мамчуева

ФАС и Роскомнадзор отложили введение штрафов за неисполнение закона о маркировке рекламы
Их по-прежнему обещают ввести, но позже
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
После того, как Google перешел на новую ПУ, стал замечать массу странностей. Одна из них связана с тем, что если открыть подробности любой страницы, то в ней указано: "Страница проиндексирована, но ее нет в файле Sitemap". Выглядит это таким образом:
Открываю файл sitemap.xml и нахожу там все страницы, которые указаны как отсутствующие в сайтмапе.
Более того, открываю подробности о сайтмапе в ПУ, и вижу, что "Файл Sitemap успешно обработан" и отсутствие каких-либо ошибок. Число записей в sitemap.xml точно соответствует числу статей на сайте. Причем дата последней обработки файла всегда свежая:
Так что это за ерунда такая? Почему в подробностях всех страниц указано, что в файле sitemap.xml они отсутствуют, хотя они там есть и сам файл успешно гуглом обрабатывается?
потому что консоль всю жизнь глючит и все уже привыкли , ждите
потому что консоль всю жизнь глючит и все уже привыкли , ждите
Так спрашивается нафига такая консоль, если в ней не отражается реально положение вещей?
Так спрашивается нафига такая консоль, если в ней не отражается реально положение вещей?
Да тоже заметил, что консоль глючит. Гугл что то чудит вообще.
Так спрашивается нафига такая консоль, если в ней не отражается реально положение вещей?
Надеюсь это риторический вопрос
После того, как Google перешел на новую ПУ, стал замечать массу странностей. Одна из них связана с тем, что если открыть подробности любой страницы, то в ней указано: "Страница проиндексирована, но ее нет в файле Sitemap". Выглядит это таким образом:
Открываю файл sitemap.xml и нахожу там все страницы, которые указаны как отсутствующие в сайтмапе.
Более того, открываю подробности о сайтмапе в ПУ, и вижу, что "Файл Sitemap успешно обработан" и отсутствие каких-либо ошибок. Число записей в sitemap.xml точно соответствует числу статей на сайте. Причем дата последней обработки файла всегда свежая:
Так что это за ерунда такая? Почему в подробностях всех страниц указано, что в файле sitemap.xml они отсутствуют, хотя они там есть и сам файл успешно гуглом обрабатывается?
У меня так и не прошла эта болячка. На одном сайте - ок отображает, на другом - вот такая лабуда уже с полгода точно.
Всем спасибо, а то я уж думал это с сайтами что-то не так. Ибо я начал анализировать индексацию в ПУ после перевода своих сайтов на https - думал может затык какой с sitemap )
Всем спасибо, а то я уж думал это с сайтами что-то не так. Ибо я начал анализировать индексацию в ПУ после перевода своих сайтов на https - думал может затык какой с sitemap )
Есть еще один глюк, если много js и css, то он может при анализе все не кушать, и писать, что страница не оптимизирована под мобильные устройства.
Хрень выкатили полную. Раньше, чтобы страничку в индекс добавить, раз, два и готова. Сейчас будешь 3 минуты ползунок анализа страницы наблюдать...
Есть еще один глюк, если много js и css, то он может при анализе все не кушать, и писать, что страница не оптимизирована под мобильные устройства..
Такое и раньше задолго до новой ПУ было. Я всегда ряд прогонов делал - на 3-4 раз показывало, что всё оптимизировано )
Есть еще один глюк, если много js и css, то он может при анализе все не кушать, и писать, что страница не оптимизирована под мобильные устройства.
Хрень выкатили полную. Раньше, чтобы страничку в индекс добавить, раз, два и готова. Сейчас будешь 3 минуты ползунок анализа страницы наблюдать...
блин, я два рабочих дня убил, пробуя как то победить эту проблему. Робот тупо не грузит css и js (ошибка - "другая ошибка", без пояснений), получает кривой снэпшот страницы и ставит по всем страницам "не оптимизирована для мобильных", при том что роботс.тхт все отдает боту.
Но пересканить всю пачку тоже не отдает - ругается на рандомную статью и останавливает процесс.
Как это вообще победить?)) Пробовал и шаблоны менять, и кеширование с лезилоад отключать, и роботс убирать совсем, и даже клон сайта ему показывал - и там не ругался.
При этом на их же сервисе https://search.google.com/test/mobile-friendly - все ок, всегда все удобно)) А такой же чекер в консоли - постоянно ругается.
блин, я два рабочих дня убил, пробуя как то победить эту проблему. Робот тупо не грузит css и js (ошибка - "другая ошибка", без пояснений), получает кривой снэпшот страницы и ставит по всем страницам "не оптимизирована для мобильных", при том что роботс.тхт все отдает боту.
Но пересканить всю пачку тоже не отдает - ругается на рандомную статью и останавливает процесс.
Как это вообще победить?)) Пробовал и шаблоны менять, и кеширование с лезилоад отключать, и роботс убирать совсем, и даже клон сайта ему показывал - и там не ругался.
При этом на их же сервисе https://search.google.com/test/mobile-friendly - все ок, всегда все удобно)) А такой же чекер в консоли - постоянно ругается.
На проверку отправляйте страницы с ошибками. Но она то ж неделями может проходить.