Вот это интересная мысль.
Sitemap - последний обход был вчера (т.е. Гугл смотрит карту сайта)
Но страницы которые не в индексе - их Google не обходил долгое время (последний обход был в ноябре, т.е. 6 месяцев назад). Хотя ссылки на эти страницы есть + в Sitemap тоже они присутствуют.
То есть определенные страницы Гугл просто не посещает по каким-либо причинам? И из-за этого они не попадали в индекс? Отправил эту страницу в индекс вручную, через 1-2 дня она добавится в индекс теперь (вручную).
С перелинковкой все хорошо в рамках структуры сайта, я уже писал, нет страниц островков. Я честно говоря устаю от таких базовых советов)
Я уже писал, после индексации вручную - несколько страниц залетели в топ 10. А до этого Гугл их не индексировал пол года своими силами.
Update по теме. Все отправленные страницы из Search Console вручную - добавлены сейчас в индекс.
Возникает логичный вопрос - это сейчас Google захлебывается из за AI контента, что не может индексировать новые страницы сам? И нужно его заставлять индексировать вручную? Или он просто забил на рунет, и сайты на русском языке не приоритетны для него? (т.к. они тут не зарабатывают деньги здесь)
В вашей практике - AI контент в инфошке приносит трафик? Я просто до сих пор не использую AI для генерации текстов, только иногда как подкинуть идеи по доработкам существующих статей.
Но я пишу личный опыт, поэтому рерайтить сильно чужие тексты не приходится.
пожалуйста
Капец, 2 млн почти показов)
А что за рост примерно с марта, это после апдейта?
GPT бот полез сканировать сайт, порушив нагрузку на CPU.Раньше лазил только по важным страницам, а теперь по всем тыщам страниц каталога попёр.Кто знает, он разово проходит, и потом всё. Или теперь, если не заблочить, будет постоянно по ним шастать, и CPU напрягать?😈
Наверняка это хорошо, разве нет? Вдруг ваш сайт начнет чаще цитировать.
А вообще если по теме - неужели от одного ChatGPT ваш сервер может упасть)) У вас что нагрузка там впритык прям.
это еще почему ?
Кстати вот инфо русский язык