GoRSS

GoRSS
Рейтинг
154
Регистрация
29.07.2013

Читайте http://blog.yandex.ru/post/32028/ .

Например, когда люди ищут какой-нибудь товар, они, как правило, хотят купить его или почитать отзывы и обзоры. То есть для категории «товары» среди потребностей будут «купить», «отзывы» и «обзоры». Всего у категории может быть от двух-трех до нескольких десятков потребностей.

После прочтения откройте http://yandex.ru/yandsearch?text=лазаревское&clid=1882610&lr=239 и ищите в сниппетах выделенные жирным синонимы.

Яркий пример http://yandex.ru/yandsearch?clid=1882610&text=прокат%20авто%20краснодар&l10n=ru , смотрите на тайтлы в выдаче.

сайты, содержащие списки поисковых запросов (многократное повторение и перечисление ключевых слов), предназначенные исключительно для обмана поисковой системы и манипулирования результатами ее работы..

Не совсем то, здесь скорее речь о дорах.

Затея рисковая, относительно недавно думал о том же. Лучше выбрать ключи, выглядящие более естественно и уже ими реализовать задуманное. Например, из массива "купить билет москва оренбург", "билеты москва оренбург" и "москва оренбург билеты купить" взять только второй. По таким ссылкам будут кликать, увеличивая глубину просмотров. Остальные слова будут поганить вид.

Lichkin-rus:
А Вы сделайте. Скоро создадите тут ещё 1 вопрос "Почему сайт в ж...е?".

Две недели назад добавил пару статей в бесплатные каталоги, первые по запросу "добавить статью". Через неделю с 50 позиции на 31, еще через неделю на 121. Три недели сидим уверенно на 121 месте, ни один конкурент не доберется :)

Посмотрите мою тему /ru/forum/880120 , есть над чем подумать.

k_topolyan:
Я бы сказал больше. Зачем вообще нужен sitemap? Sitemap в 2015 году можно не делать, страницы сайта и так прекрасно находятся (кроме случаев неправильной перелинковки). Это рудимент поисковой оптимизации, он уже практически никак не влияет на что-то.

Вы заблуждаетесь. К примеру, есть у меня сайт, 12к страниц. Глядя на логи по вебмастеру, за один заход робот сканирует порядка 300 страниц моего сайта и уходит дня на 2. В процессе обхода по большей части проверяются страницы без изменений, а новые заходят в индекс через несколько заходов.

Достаточно иметь в sitemap параметр <lastmod> и робот пойдет по новым страницам, не трогая старые. Это один из главных инструментов оптимизации сайта, на который нельзя плюнуть.

А сайты где over 1kk страниц, думаете им тоже стоит отказаться от sitemap? Ведь это экономит целый час работы программиста...

Еще пример, про тот же мой сайт. Дай, думаю, сделаю на своем туристическом раздел расстояний, до 100 курортов от 100 городов-столиц областей. За неделю +10к страниц. Как скоро они окажутся в индексе? За полгода зашло 40% и по чуть-чуть прирастает.

Добавлены отели в количестве 2.000 штук, сразу к ним прикручена sitemap. Один ап и всё в индексе. А вы говорите...

Сперва нужно понять, что именно вы этим хотите добиться. За перенос траста, ссылочного и прочего не скажу, но если вы будете отдавать 404, то лучше не будет.

Достаточно обратиться к логике ПС. Поисковик ведет текстовый поиск, и если текст релевантный, то сайт предлагается в выдаче.

Вы ставите 301 редирект, поисковик меняет адрес и снова процесс оценки релевантности. Может этот маневр вам наоборот поможет в росте позиций. А если на него нет трафика, то 301 и не забивать голову.

SergejF:
Значит большинство работы - корове под хвост.

Намёк на то, что в этом случае надо включить группу ключей в одну простыню?

xtras:
500 знаков что-то маловато. Почему такие тексты маленькие будут?

Там по-существу в одно предложение можно уместить ответ на запрос, остальное вода.

Учите php.

Как вариант, на php:

$thereurl=$_SERVER[REQUEST_URI];
if ($thereurl=='/1.htm') {
header("HTTP/1.1 404 Not Found"); die(require '404.htm');
}
В развлекательной тематике это не посещаемость

Тем более, лопату в руки :)

Всего: 1013