Цена снижается до 25 WMZ.
Всем спасибо! 🍻
В основном индексе 48 страниц 😒
Контент - несколько десятков статей. Остальное - описание товаров, магазин. Контент уникальный, но какое-то время назад имела место кривая настройка .htaccess, из-за чего, как мне рассказывали, одна и та же страница могла вызываться через немного разные УРЛ. Сайт не новый, 2004 г.р. Также, для нескольких ссылок с главной страницы на незначительные второстепенные был применен rel=no follow. Кстати, тоже где-то с месяц назад. Могло применение rel=no follow повлиять?
DerSoldat добавил 12.03.2009 в 17:19
Нда, всё что можно понять в такой ситуации, так это что у Гугла есть модуль, набирающий страницы в индекс и модуль, оттуда их удаляющий ☝
Возможно, я что-то недопонимаю, но мне кажется, что от таких действий может быть только два положительных результата:
1) угадывание тех словосочетаний, которые по какой-то причине не попали в доступные Вам базы ключевиков,
2) предсказывание возможных словосочетаний, которые могут возникнуть, но ещё не возникли и поэтому не попали в доступные Вам базы ключевиков.
Вам, конечно же, хотелось бы другого результата, а именно: максимально покрыть возможные варианты запросов. Но поскольку Вы сгенерируете список, богатый несуществующими запросами, Вам надо будет его почистить, чтобы эффективно тратить ресурсы на выполнение Вашей задачи. А как Вы сможете его почистить? Вы либо примените невероятно эффективный алгоритм анализа и прогноза, реализованный на базе, скажем, нейронной сети, либо просто спросите себя: а зачем мне это всё, если уже есть готовые базы...
Можно говорить и о других аспектах Вашей идеи, но, скорее всего, уже существуют методы их воплощения.
Однако сама по себе идея хороша именно тем, что похожа на поиски Индии Колумбом. В процессе её развития Вы можете случайно открыть для себя массу интересного.