Самый главный вопрос: зачем продвигать группы товаров, которых нет в наличии?
Не понятен вопрос. Какая цель? В вордпрессе нет системы комментирования или чем то не устраивает?
100-200 тысяч рублей навскидку, если с нуля.
Ага. Такой совет колхознику сродни совету: "Выиграй в лотерею миллион и лежи на печке, ничего не делай..."
А с индексацией в гугле у вас как дела обстоят. Яндекс у меня за два месяца проиндексировал всё, а гугл только 5%. Правда у меня и страниц дофига - сотни тысяч.
Вот это нормальная ситуация. А у меня за два месяца посещалка дошла только до 700 уников в сутки, да и то только в яндексе, в гугле похоже в песочнице сижу - по нескольку посетителей всего капает.
Правда у меня тематика жутко конкурентная и контент - уникальный копипаст.
ЗЫ:
Что касается квот, то квотирование (условное) есть конечно, только применяется не к сайту, а связке "запрос-сайт". Где-то год-полтора назад я это в Гугле заметил (после введения RankBrain), а в последнее время и в Яндексе (после Королева). Это проявляется в виде мигания сайтов выдаче, причем белых сайтов, и проявляется на жестко-конкурентных кратких запросах и когда в топе все сайты с одинаковым по сути контентом и очень схожими тайтлами.
А вы попробуйте тронуть эту страницу и не будет больше у вас дилеммы :) С очень большой вероятностью она вылетит из ТОП3.
Redgektor, если сами видите, что находитесь в топе по непонятным вам причинам среди заметно лучших конкурентов, то не трогайте ничего, иначе вылетите. Неоднократно с таким сталкивался.
Может быть и переписать, но... если поисковик сейчас считает ваш сайт первоисточником, то после переписывания может уже так не посчитать, т.к. контент будет иным.
Скорее от тематики зависит. Если для тематики (например медицинской) обще характерна грамотность, то для развлекательной тематики может быть наоборот - характерна безграмотность.
На самом деле мощности - это главный вопрос, главное препятствие на пути работы современных алгоритмов. Попробуйте поиграться с алгоритмами ИИ и вы поймете, что они приемлемо работают на относительно небольших наборах данных - ну, сотня тысяч, ну, миллионы - с ними ваш многоядерный комп за сутки может быть и справится, но если речь о миллиардах и триллионах страниц, то применение всех этих алгоритмов в лоб становится нереальной задачей. И приходится искать оптимальные упрощения, пропускать данные поочередно через несколько алгоритмов, начиная с простых и быстрых, и заканчивая сложными, огрублять данные и т.д.
Всё верно, только работать это может парадоксальным для вас образом.
Знаете, как я с ходу, с первого взгляда, распознаю, что комментарий, оставленный у меня на сайте, является спамом (пусть он даже строго по теме). Очень просто: если я вижу, что сообщение написано черезчур грамотно и проставлены все запятые, а тем паче если правильно проставлены тире и двоеточия, то я сразу помечаю такое сообщение как рекламу. Однозначно, это работа профессиональных копирайтеров, а не реальных пользователей товара. А если я это сходу вижу, то это обязательно должно отразиться и на математической модели, используемой поисковиком. Поэтому и часто можно наблюдать картину, когда искренняя статья малограмотного Васи Пупкина ранжируется выше сухой грамотной, но скучной статьи профессионального копирайтера. Да, в руководстве для асессоров Гугл пишет про доверие источнику и прочие паттерны хороших сайтов, но в реальности я вижу, что на практике частенько лучше работают антипаттерны, перечисленные в руководстве в разделе "плохие сайты".