Если всех объявлять шарлатанами, то обесценивается само понятие шарлатанства.
Называть всех без исключения - шарлатанами, это всё равно что всех людей называть людьми.
Потому, что нечего обувать людей на деньги.
Никто не может пока сайт в песочнице на него повлиять.
После выхода из песочницы - сайт оценивает ИИ яндекса и гугла.
SEO специалист никак не может повлиять не на что. Тут оценивается товарный объём, качество сайта, удобство для людей.
Прекратите разводить сайты, которые хоть как то выходят со своим предложение товаров на рынок.
Не имеющая ничего общего с реальностью ахинейная чушь и профанация.
Было б так, тысячи юр. лиц не сотрудничали бы с seo студиями и частными исполнителями.
Кроме того, на форуме были бы бессмысленными коммерческие темы.
Продавать, пока ещё есть остатки трафика.
Эра любительских информационников закончилась. Дальше только нишевые и весь остальной трафик ПС отдадут СМИ и крупным инф. агентствам.
Такую информацию представители не освещают.
Никто из представителей детально о регламенте работы многорукого не расскажет.
Давно замечаю у себя в статистике обхода такие изменения: Было 200 OK – Стало 500 Internal Server Error. Потом в следующую дату обхода, или в эту же наоборот: Было 500 Internal Server Error – Стало 200 OK. Для того же URL. И так с разными страницами. По несколько штук в день (в дату обхода роботом).
У вас так же? Это нормально? Я так понимаю, в какой-то момент сервер не отвечает и выдает 500 ошибку. Но по нагрузке вроде все ок, ресурсы с запасом.
За последний год была такая же картина на двух проектах - сайт работает нормально, Яндекс "мигает 500-тыми ошибками".
В раз раз переписывался с поддержкой Яндекса порядка двух неделю, последовательно приводя примеры, что хостинг отдаёт исправный 200 ответ, а робот почему-то время от времени фиксирует 500-ую ошибку. Со временем проблема ушла (примерно ещё через неделю).
Во втором случай вопрос решился быстрее, так как были наработки прошлой переписки.
Смотря в чём похожесть. Наплывы ботов повсеместно. Смотрите логи, изучайте характер поведения.
Самых назойливых баньте подсетями.
Есть тех. боты, есть парсеры, есть поведенческие. Везде своя линия работы.
С каждым случаем нужно разбираться отдельно.
Хотите, чтобы вам ответили люди, которые не имеют к этому отношения? :)
Вариантов множество, узнать конкретно ваш вряд ли возможно.
Если хотя бы одну сканирует, значит физического запрета на доступ нет.
Проверьте ещё раз, нет ли запрета на обход/индексацию в:
- robots.txt
- в мета тегах
- в ответе сервера
CloudFlare используется?
Свой сайт сканируете?
На момент сканирования через Screaming Frog с рабочего компьютера - сайт в браузере открывается?
Проблема как себя проявляет, SF вообще не сканирует или просто останавливается на каком-либо этапе?
Глобально, думаю, что нет. В том смысле, что если трафика на страницах нет, то Яндекс потихоньку выкидывает такие страницы из индекса.