Плюс был инциденти пофиксили 31го ( написали 1го ноября)
и Гугл признал баг с кор апдейтом октябрьским и сказал что пофиксил ( вроде как discover только касается)
Ровно с обеда 31 октября второй проект вернулся по показателям google. Первый ожил чуть раньше. Но ошибка по файлу robots.txt так и не ушла.
У меня нормальные даты по этому запросу:-)
Проблема вернулась? Со вчерашнего вечера снова перестала работать индексация.
только у меня проблемы или у всех снова они начались?
В данную минуту Google все индексирует.
сложно сказать - такого ранее не встречал, были проблемы с картами, роботсом, индексом - что угодно. А вот что бы карту принимал без ввв - при сайте с ввв - первый раз такое слышу.
Инфо сайт ?
В личку напишу?
О какой доработке речь? Все работало больше десятка лет. А потом внезапно сломалось, когда с нашей стороны никто ничего не трогал? Так не бывает, это не мопед, который от старости может развалиться.
Sitemap доступен. Проходится валидатором и виден снаружи. Аналогично и robots.txt. Никаких ограничений со стороны сервера, провайдера нет.
Нет проблем с Яндексом.
А легло все во время последнего апдейта Google. И, как выясняется, прелести с файлом роботс не только у нас. Может быть, всё-таки, проблема не с нашей стороны? Вам так не кажется?
Но даже при этом мы готовы что-то исправить или как вы говорите "доработать". Знать бы только что.
P.s. В сутки на сайте появляется от 40 до 150 новых страниц.
Спасибо, Владимир. Передам программисту. А у вас есть какое-то представление, почему может отвалиться www.? Причем не только на сайтмапе сказывается. Судя по логам, бот перестал вообще заходить на основной домен. А вот поддомены посещает регулярно.
Посмотрим, что это даст.
Верно, Владимир. У нас ошибки "нагрузка на хост" изначально и не было ни на одном портале.
Просто на первом сайте перестали индексироваться новые страницы (отвалился роботс и сайтмап). Они так и лежат до сих пор. Скрины прилагаю. Хотя сами страницы начали "проваливаться" в гугл. Но не все и не сразу. Пока закономерность понять не можем.
А на втором портале вообще не было никаких ошибок. Новые страницы просто перестали индексироваться. Отвалились гугл новости и рекомендации. Новые страницы не находились в гугл ни по фрагментам, ни по заголовкам. Только поиск старых страниц оставался.
А вот как у всех облегчение наступило, новые страницы стали индексироваться. Но по-прежнему не идут в гугл новости и рекомендации. Вернее идут, но раз в 10 хуже, чем было.
У всех заработало?
p/s У меня только сканирует, но в поиск не добавил ещё не одной страницы
В настройках у меня пишет проблемы с роботс, так у всех?
открываем проблемную вкладку
На одном из проектов аналогичная ситуация. Роботс с ошибкой. Сайтмап, который всегда был помечен как "успешно" - красный. При этом валидатором проходится, роботам Гугла доступен. Материалы попадают в индекс выборочно и с задержкой. Условно. Из 40 в сутки 10 сразу, ещё 15-20 через день, а остальные вообще мимо. Не ищутся в поиске гугл ни по фрагменту, ни по заголовку. В Яндексе как было нормально все, так и осталось.
Второй проект - индексируется, роботс и сайтмап видит. В поиск гугл все попадает сразу. Но новых материалов нет в рекомендациях. Малые вплески по статьям 3-4-дневной давности. Разница с прежними показателями минимум в 10 раз.