Поразительно но ссылки с sape работают для буржа очень недурно и по сей день даже в совсем хардовых тематиках, иное дело как сайт не зафильтровать, используя эти линкопомойки. Ситуация всегда была примерно следующей. Покупаешь 30-40 ссылок, посещаемость сразу с 500 до 1200-1500 в день. Но через месяц письмо счастья и дале мучительный выход из-под пингвина в течение полугода. В связи с этим от sape отказался напрочь. Если бюджет не очень велик, уж лучше ссылки с обзорами с fiverr. Блоги эти отваливаются неумолимо, и все же где-то 60% выживает, по моим наблюдениям. Но и их покупаю для разбавки больше.
По-моему опыту, для того чтобы сайты воспринимались автономно и нормально индексились, в самом деле достаточно href lang'a. Правда основная региональная версия (русская в данном случае), все равно будет бить в выдаче все прочие 9 раз из 10.
Все это есть. И обычные xml, задающие каркас структуры. И динамически обновляемые xml с ссылками на товары. Этого все равно не хватает в случае очень большого сайта. Все индексируется до жути неравноверно и медленно. ) Насколько я понимаю, у каждого сайта есть квота на индекс, чем круче сайт - тем оперативнее и прожорливее инстаробот. Скажем, у меня число проиндексированных документов в день порядка 80, у
конкурентов с сайтами покрепче - более 400. И это большая проблема.
Может, есть какие-то специальные сервисы по загону страниц в индекс или хотя бы способствующие этому? :)
Может кто подскажет сервисы-пингаторы, способные ускорить индексацию в Google , ну или, по крайней мере, загонять туда ежедневно 200-300 нужных страниц? Страниц у меня на сайте очень много, а индексируется всё крайне неравномерно, из-за чего нужные страницы недополучают веса.
Volume, выдаваемый semrush, более чем достаточный, чтобы оценить запрос и его потенциал.
Тоже очень прилично стрикануло трафик (было 2 существенные просадки 29го августа и 3 cентября (проект на Польшу), при том, что внешнессылочной активности никакой нет. Но сейчас вроде ситуация выравнивается тьфу-тьфу.
В принципе так и есть, действительно. Вы правы. Просадка в основном на 2-3 зеркалах. Тем не менее в последние дни наблюдаю значительный рост числа просмотра страниц (т.е. +2 в среднем за сессию) при трафике 20к в день, это существенно. Есть еще гипотеза, что сессии состоящие из одного перехода (с зеркала на зеркало и всё), GA перестали учитывать. Буду пытаться проверять. :)
Google говорит, что разницы вообще нет. Но в выдаче приоритет отдельным доменам.
спасибо всем высказавшимся, в принципе нашел я несколько десятков хитроумных линк-вилов, которые, по всей вероятности, прилично подхлестывают сайт в выдаче. что до региональной выдачи, не думаю, что hreflang тут от чего-то обезопасит. Скорее всего, просто блоки страниц и контент выводятся на этих зеркалах по-разному, что и обеспечивает какую-то уникальность друг относительно друга. В любом случае серая, весьма паливная тема.
Мне тоже так кажется. Альтернейт был и до этого - а толку не было. А может быть, такое что сайты-зеркала действительно пессимизированы за неуник. контент, но общий траст и поведенческие всего семейства все равно перевешивают и всё ранжируется хорошо?