iLeg0

iLeg0
Рейтинг
59
Регистрация
12.08.2010
Интересы
seo, программирование
Nikovlasov:
Здравствуйте! В интернете читал, что рекомендуют на каждое ключевое слово или фразу писать одну сео статью.

Например, есть запрос "недвижимость в Анапе", "недвижимость в Анапе новостройки", "недвижимость в Анапе новостройки купить" и так далее. Стоит ли писать под каждый такой запрос отдельную статью? Просто в последнем запросе "недвижимость в Анапе новостройки купить" уже входят другие запросы

Проблемы нет в написании кучу сотней статей под каждый запрос, но будет ли хоть какой-то бонус за это со стороны поисковой системы? Будет ли такая статья более качественная?

Тематика недвижимость. Нереально конкурировать с лидерами рынка, поэтому хочу по-максимому сделать так, чтобы хот как-то попытаться конкурировать

Соберите все ключи и раскластеризуйте (хотя бы на примере одной-двух объектов (стран), чтобы понять принцип кластеризации). И под полученные кластеры пишите статьи

Очень добрый:
Как вариант - заняться жесткой наркоманией: Под каждый ключ - создавать страницу, максимально заточенную под конкретный запрос. Хотя... олх и пром уже успешно этим занимаются...

Это нифига не поможет, если траста нет

Frelly:
А когда мы говорим, наш запрос уже в падежах и с предлогами.

Почему никого это не трогает?

Потому что поисковики, вообще-то, нормализуют слова при индексации. И отбрасывают стоп-слова.

Прочитайте, что такое кворум.

---------- Добавлено 07.03.2016 в 19:40 ----------

Jimmy:
Потому что по сути ничего не поменялось.
Продолжайте создавать качественный контент, а не SEO-контент. И ваш сайт по-прежнему будет в ТОПе по запросам. Иначе новые алгоритмы Гугла, а вскоре (рано или поздно) и Яндекса будут выводить в ТОП ваших конкурентов.

Одно другому не мешает. Можно писать качественный контент, не забывая про семантику.

Smart Shot:
Если у вас URL другой формируется, то никакой POST вас не спасет

Как может формироваться другой URL при пост-запросе?

Этим вообще-то и отличаются GET и POST запросы: get - запрос через параметры в URL, post - через параметры в теле сообщения.

zveroangel:
закрыть старые урлы в роботсе и удалить вручную через https://webmaster.yandex.ru/delurl.xml

Кстати, нет ни у кого скрипта, массового удалятора через эту форму. Так влом писать самому...

Anamnado:
почему я такой мусор не вижу ?

блин ну покажите , что сложно что ли
мне интересно глянуть как у таких сайтов форма сделана. наоборот мне такое нада!

https://yandex.ru/search/?text=inurl%3Asearch%2F%3Ftext%3D&lr=10738

Anamnado:
первый раз слышу
Smart Shot, tippula, можно примеры таких проиндексированных страниц ?

Да любой сайт с внутренним поиском по сайту через get-параметры.

Постоянно мусор в индекс лезет, который закрывать приходится

Не паранойтесь и юзайте шарп или utm-метки с canonical на соотв страницах.

Так в принципе, это логично, что гугл выводит только тех выпускников, про которых в инете куча инфы (как минимум, статья на вики). Это же выдающиеся выпускники.

Например, по тому же МГУ - https://ru.wikipedia.org/wiki/%D0%9A%D0%B0%D1%82%D0%B5%D0%B3%D0%BE%D1%80%D0%B8%D1%8F:%D0%92%D1%8B%D0%BF%D1%83%D1%81%D0%BA%D0%BD%D0%B8%D0%BA%D0%B8_%D0%9C%D0%93%D0%A3

Гугл же не всех подряд выводит, а тех, у кого максимальный "рейтинг упоминаний" в вебе.

Machine Learning, мать его...

NikeFIT:
Подбираешь СЧ запросы, группируешь их и пишешь статьи, примерно по 5000 знаков, можно и больше, будет только лучше.
Прописываешь красивый тайтл и дискрипшн под запросы, про h1 не забудь.
Кидаешь статью в аддурилки ПС.
После того как статья проиндексировалась, раскидываешь по соц. сетям, через шарп.
Пару ссылок не будут лишними. Если можешь, то закажи, что бы люди с норм акк с гугл+ рассказали через шарп, так же и фейсбук.
Сделай на сайте микроразметку, тоже поможет, снипет будет больше и ПФ будет круче.
Вот в принцыпе и все_)

Как у тебя все просто и легко...

Всего: 76