Контент-менеджер должен более менее знать, что и где у него на сайте лежит. В принципе есть две логики.
1) рассчитано на пользователя. Тогда оценку релевантности должен оценивать человек.
2) рассчитано на роботов. Тогда оценку релевантности должен оценивать автомат.
В конце концов для новостных сайтов можно сделать свой внутренний рубрикатор, словарь. Привязать новость к 3-4 рубрикам/словам. Подтаскивать последние новости по этой теме и вручную отбирать те что наиболее соответствуют.
А еще лучше на несколько доменов.
Задал запрос Ашан. И в течение нескольких минут нашел адреса всех магазинов. Спрашивается, какой смысл тратить силы на то, что и так люди добрые сделали?
Имеет смысл тратиь силы на то, что люди добрые и так сделали?
Бывает конечно. Только все равно не врубился зачем.
Психиатр показывает клиенту картинку с белый квадратик на черном фоне и просит пояснить.
Пациент: Ночь. Палатка, а в ней е...
Доктор показывает черный квадратик.
Пациент: Ночь. Это вагончик, а в нем е...
Доктор показывает круг.
Пациент: Ночь. Луна, а на ней е...
Доктор: Да вы батенька, маньяк!
Пациент: А вы доктор, тоже хороши. Какие картинки собираете!
У меня реализовано два варианта. Один при публикации контент-менеджер подставляет. В другом случае - автоматически публикации автора.
По ключевым словам фигня получится.
А зачем Ашану реклама в SE? Правда не врубаюсь.
Упадет. И не только ТИЦ.
Упадет также фактор ссылочного ранжирования и PR
в SEO вообще никакой гарантии ни в чем не бывает.
Однако сомнительно, что у SE хватит мощностей отрабатывать сложные скрипты, тем более запрятанные в закрытой от индексирования зоне.
Если мощности и будут, то скорее их не не это бросят а на более полное индексиование.
Если заказы стабильные, м.б. имеет смысл выложиться один раз, а потом приплачиать за модернизацию?