- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, уважаемые. Пациент - minecraftgo.ru
Совершенно непонятная ситуация. Неделю или 2 назад гугл неожидано выбросил практически все страницы сайта из индекса, оставив в индексе только разделы сайта. Яндекс индексирует сайт нормально (по данным Яндекс.Вебмастера 1170 стр. в индексе из загруженных роботом 2814) и даже позиции какие-то есть. Гугл вебмастерс показывает 558 страниц с ошибкой 404 (причем показывает ошибку для тех страниц, по которым отдается ответ 200, что само по себе очень странно); в основном гугл показывает 404-ую ошибку для новостных материалов. При всем при этом, если воспользоваться инструментарием гугла (посмотреть как гугл-бот), то страница, по которой гугл показывает 404-ую ошибку, отдает ответ 200 и статус "успешно". Такое впечатление, что во время индексирования сайта сайт резко падает и потом снова подымается. Но это длится уже около 2-х недель. Согласно статистике сканирования сайта в гугл вебмастерс, гугл сканирует 100-200 страниц сайта ежедневно. Попытался отправить сайтмап в гугл и вот что гугл показал.
Проблема в robots.txt или я неправильно понял? Ну ладно, допустим в сайтмапе есть страницы, которые запрещены в роботсе, допустим это не есть хорошо и я это знаю. Но ведь это не могло стать причиной того, что гугл выкинул весь сайт из индекса? Или это банальный глюк гугла/проблема с доступностью сайта во время индексации, которая разрешится со след. переиндексацией? Прошу помощи в мозговом штурме, спасибо.
P.S. Каких либо других проблем с сайтом гугл вебмастерс не показывает.