- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Аналогичная проблема с 16 октября. Причем страницы ботом сканируются и индексируются. А ручная проверка по любой ссылке "Получение страницы error Не удалось выполнить. Превышена нагрузка на хост" и в логах бот в это время не обращается к сайту. Сайт на мощном сервере.
У меня последняя индексация была 17.10, с тех пор собственно ничего не проиндексировалось гуглом
У меня последняя индексация была 17.10, с тех пор собственно ничего не проиндексировалось гуглом
Аналогично. Установлен Site Kit и новые страницы не индексируются, хотя ссылки есть в карте XML
дайте пожалуйста ссылку на тему. Чтобы отслеживать.
Именно эту тему удалил, вот сами чекайте их форум - https://support.google.com/webmasters/community?hl=ru Жалоб много.
Возможно баг, но кто-то пишет, что это из-за апдейта и якобы это часть санкций который он накладывает на ресурс.
Вот в другой ветке человек, побывавший на конференции гугла, сообщил такое:
О, от Гугла МПК тоже включили
Ну фактически он гугл-мпк с прошлого лета работает, helpful content. Многих после сентябрьского апдейта положили.
Вот в другой ветке человек, побывавший на конференции гугла, сообщил такое:
это всегда было, я пробовал 2 года назад сделать гс на 2 миллиона страниц, уникальности не очень много на каждой странице
но h1 тайтлы и дески норм, индексация была по 5 страниц в 3-4 дня
возможно чуть поменяли правила определения жуткого гса и все, а функционал был всегда
или вы думали можно миллиард одинаковых страниц нагенерить и гугл все сьест? ну головой подумайте минуту
Вот в другой ветке человек, побывавший на конференции гугла, сообщил такое:
Человек пообщался с другими гадателями на гуще и сделал предположение.
У меня сайту неделя, там 10 страниц в индексе, каким образом он уже отмечен как СПАМ?
Нет, здесь другая причина. Склонен полагать, что очередной баг.
каким образом он уже отмечен как СПАМ
Сие никому неизвестно. Может, посчитал ваш контент неактуальным или генерированным, хотя вроде как и пишут в справке, что не важно, человек или ИИ создал контент. Может, дубли нашел. Гадать можно долго.
У меня из четырех сайтов только один получил "превышена нагрузка на хост", он же потерял 70% трафика в сентябрьский helpful update и с 17 октября не индексируется. С остальными сайтами проблем нет, статьи сегодня добавлены и через час в выдаче. Так что есть рациональное зерно в мысле о метке.
Я думаю, что гуглоиды связали алгоритмы helpful и спам и то, что один алгоритм посчитал бесполезным, другой отметил как спам и заблокировал индексацию. Это самое логичное. Ведь и ошибка стала вылезать буквально накануне завершения апдейта антиспама. Как никто не откатил сентябрьский апдейт, так и тут никто ничего не исправит. Ждем следующего апдейта, короче.
Ну фактически он гугл-мпк с прошлого лета работает, helpful content. Многих после сентябрьского апдейта положили.
Так как, все настроено, все работает, все индексирует на всех сайтах без ошибок