Понятно. Я на 4-ю не переходил, продолжаю работать с 3-ей.
Хотя тенденция KC конечно огорчает.
Чтобы быть, этим нужно постоянно заниматься и не только в формате одного проекта. Необходимый опыт накапливается годами.
А собственник бизнеса должен заниматься своим делом - управлять бизнесом.
Господа, умерьте зависть. Если бы это не работало, я бы этого не делал.
Человек спросил и получил в моём лице развёрнутый ответ и поблагодарил за него (и не только автор). Никто из вас не потрудился этого сделать. А все эти ехидные и нелепые домыслы - абсолютно лишнее здесь.
Полагаю тема актуальна будет всегда, покуда есть необходимость продвижения интернет-магазинов.
Но вот что касается многолетней практики, которая расходятся с рекомендациями поисковых систем - я бы так не сказал. Каких-то категорических расхождений я например не вижу. Есть результативная разница в инструкции Disallow между Яндексом и Гуглом, есть приоритет каноникал для Яндекс. Есть clean-param для него же. Но что касается страниц пагинаций в индексе, то они не нужны ни Яндексу, ни Гуглу.
В целом вообще уровень требований к индексации страниц довольно серьёзно вырос. Оно и понятно - незачем поисковикам хранить огромное кол-во бесполезных для ранжирования страниц.
А какая версия у вас в работе? У меня 3-я, капчи иногда бывает (когда превышаю лимит), но антикапча подхватывает.
Раздельно, безусловно, есть.
О том и речь. Вопрос в том, как купленные будут работать в связке и насколько стабильно. Думаю, что не будут.
Key Collector (KC) ;)
Спасибо, слежу за топиком, как только он появился, но по части связки купленных проксей и акков вопрос открыт.
Т.е. под KC теперь тоже надо будет греть аккаунты Яндекса? Я пока справляюсь основным аккаунтом, но объёмы небольшие, я работу по семантике разбиваю на рабочие периоды и пока справляюсь, но в случае переключения на крупную и продолжительную задачу в короткие сроки пока не знаю как масштабировать. Похоже одной покупкой проксей здесь не обойтись.
Я теперь в них вообще особой надобности не вижу, без смены аккаунта в Яндексе.
Возможно со временем появятся предложения под парсинг КС.
И да, корректность хелпов сотрудниками перепроверяется и корректируется. Это вам не свободный копирайтинг под ключ на бирже для свободной продажи, где можно наплести всё что угодно и тебе за это ничего не будет.
Оф. справочная информация даже и близко не одной весовой по значимости в сравнении с единичным частным мнением пользователя на форуме.
Так что позиционировать мысль, что кто-то из нас знает лучше, чем сами разработчики этих механизмов я бы не стал и вам не советую.
Ещё раз. Нет иного механизма сохранения страниц в индексе, кроме индексирования. Хоть целиком, хоть частью, хоть одним адресом. Спорить просто глупо, выдержки я вам привел выше.
У меня у самого есть такие примеры на рабочих сайтах и там фиксируется даже не текст ссылки, а просто адреса. Так что это не более, чем частный случай индексации.
Как ни крути - это самостоятельный элемент в индексной базе и плодить такие страницы в индексе точно не стоит.
Потому что выглядеть это будет вот так,
У частного случая индексации страницы есть конкретная причина,
Мне прикрываться нет никакой надобности, я вам чётко и конкретно даю указания на справки, чтобы вы не изобретали новые смыслы и понятия тем процессам которые описаны и без моего опыта. Не говоря о том, что к вашему опыту в отсутствие каких-либо рабочих пруфов стоит отнестись как минимум с критической осторожностью.
А как вы себе это представляете? На основе каких признаков?