P.S. Вы скажете - зачем мне данные, спарсенные с этого сайта. Я отвечу - я куплю у Вас их.
Сколько заплатите?
Логи анализировали? Я бы с этого и начинал, если речь о гуглоботе.Если он упёрто и упорото что-то не хочет сканировать и индексировать - причины обычно либо в техничке, либо в низком рейтинге сайта, либо, скажем, ваш неиндексируемый раздел он счёл неуникальным в рамках сайта.Проверяйте также лимит сканирования. Вполне вероятно, что значительную его часть он тратит на какую-нибудь левую ерунду (скажем, обход давно мёртвых линков по сайту, или начинает тупить в папке шаблона и кэшей.Или вот, для примера, просто кольцевые редиректы с пары разделов сняли - много барахла из "найдено, не сканировано" пошло в индекс.
Спасибо - с логов мы начинали, логи наше все :) По логам все чисто.
Обратили внимание, как сделаны каталоги у конкурентов - решили немного наш сайт подправить, сделали. Пока дошли изменения до публикации - гуглбот резко повысил бюджет сканирования и выкинул кое-что в индекс.
То есть можно сказать, что к позитивным сдвигам мы никакого отношения не имеем.
У вас так новый контент заходит? Какой язык? У нас на английском новая ветка сайта ни в какую....
Какая то мистика
И дорвейщикам наверное тоже интересно – как не надо генерить...
У дорвейщиков задача короче, они заранее согласны на то, на что владельцы магазинов вряд ли согласятся.
Мне пока приходит на ум только одна идея - брать из выдачи дорвеи, анализировать кол-во страниц в индексе и дату создания (попадания в индекс) - дабы найти те варианты, те технологии что используются.
А пока неспешно анализирую конкурентов по большому числу метрик, что да как... распутье короче
Интересно было бы дорвейщиков почитать в этой теме.
Да вообще, было бы интересно послушать хоть кого, кто смог быстро загнать в индекс хоть что-то более менее отличающееся от 1000 страниц хотя бы :)
И всё сводится к вопросу «А как подлый гугл фильтрует доры?»
Нормальные люди используют 3 К слов, шекспиры 10+... но из 187 слов можно сгенерить 100 К страниц. А иероглифов – их же так много...
Какая доля страниц, запрошеных ботом, является откровенным мусором..дублями..кананикал-другой-урл?
Какие люди! Рад снова читать Вас!
Из страниц, которые получает Google - откровенным мусором я считаю только каталоги, в которых кроме ссылок на landing pages по сути ничего нет.
Все страницы имеют каноникал (на себя), дубликатов нет вообще
Страницы Landing - довольно уникальны, как по тексту так и по блокам.
Если брать долю - я бы сказал примерно 4% это откровенно Г - остальное намного лучше (и ранжируются в выдаче ок)
Скорее всего так и есть, вопрос чем же теперь радовать Google чтобы индексация происходила более динамично?
Может у кого-то есть позитивный опыт? Я так почитываю форум - писали что в вордпрессные сайты вламывают по 200к страниц с иероглифами, как они это делают?
разумеется это серверный шкаф, надеюсь вы в теме хостинга не просто флудите
Именно потому что морда сайта нормально сидит на первом месте по СЧ запросу (он прописан в тайтле) и планируется данный перетрах сайта.
Не вариант перекатить это все на другой домен, работать хочется именно с данным ресурсом