DerSoldat

Рейтинг
31
Регистрация
10.03.2009

Цена снижается до 25 WMZ.

redhorse:
Какое сейчас количество страниц в основном индексе?

В основном индексе 48 страниц 😒

lcatlas:
Возраст сайта, контент пациента? Уник, не молод? Поконкретнее пожалуйста, пока в телепаты не записался )

Контент - несколько десятков статей. Остальное - описание товаров, магазин. Контент уникальный, но какое-то время назад имела место кривая настройка .htaccess, из-за чего, как мне рассказывали, одна и та же страница могла вызываться через немного разные УРЛ. Сайт не новый, 2004 г.р. Также, для нескольких ссылок с главной страницы на незначительные второстепенные был применен rel=no follow. Кстати, тоже где-то с месяц назад. Могло применение rel=no follow повлиять?

DerSoldat добавил 12.03.2009 в 17:19

ultraZzz...:
Лихорадит гугл.
У меня на руках 2 сайта, фарма-блоги на английском. Контент неуник, возраст около полугода.
У первого ещё в октябре-ноябре начали отпадать страницы. Из 1к в индексе осталось около 300. С недавнего времени он начал набирать страницы, и это при том, что не обновляется с января.
У второго же начали выпадать страницы и падать позиции.

Остаётся только наращивать ссылочную массу, контент и ждать.

Нда, всё что можно понять в такой ситуации, так это что у Гугла есть модуль, набирающий страницы в индекс и модуль, оттуда их удаляющий ☝

Возможно, я что-то недопонимаю, но мне кажется, что от таких действий может быть только два положительных результата:

1) угадывание тех словосочетаний, которые по какой-то причине не попали в доступные Вам базы ключевиков,

2) предсказывание возможных словосочетаний, которые могут возникнуть, но ещё не возникли и поэтому не попали в доступные Вам базы ключевиков.

Вам, конечно же, хотелось бы другого результата, а именно: максимально покрыть возможные варианты запросов. Но поскольку Вы сгенерируете список, богатый несуществующими запросами, Вам надо будет его почистить, чтобы эффективно тратить ресурсы на выполнение Вашей задачи. А как Вы сможете его почистить? Вы либо примените невероятно эффективный алгоритм анализа и прогноза, реализованный на базе, скажем, нейронной сети, либо просто спросите себя: а зачем мне это всё, если уже есть готовые базы...

Можно говорить и о других аспектах Вашей идеи, но, скорее всего, уже существуют методы их воплощения.

Однако сама по себе идея хороша именно тем, что похожа на поиски Индии Колумбом. В процессе её развития Вы можете случайно открыть для себя массу интересного.

firacet:
Добрый день,

"все" мы используем парсеные ключевики в которых не редкость "не правильные" запросы, например : "скачивали по..но"
По правилом - все правильно, но ведь ПС ищет с учетом морфологии.
Может имеет смысл этот ключевик переделать в
скачивать по..но
скачаю по..но
скачили по..но
итд.
и уже разнообразное кол-во таких ключевиков вставлять в текст?

Кто-то баловался со словоформами? Есть какие-то результаты?
Я понимаю, что лучше самому проверить и проверю, но мне так-же интересно услышать ваше мнение.
Всего: 45