iLeg0

iLeg0
Рейтинг
59
Регистрация
12.08.2010
Интересы
seo, программирование

Предлагаю склеивать такие дубли поддоменов в разном регистре

Posting_i_PIAR:
Плюсы в плане поведенческих весьма туманны

Да ладно, а траст уже не рассматриваем в качестве фактора?

Форум - НЧ-шный вид проекта, и траст основного сайта может здорово подстегнуть позиции запросов болтающихся в топ-10-30

wladaen:
Всем привет. У меня такая проблема, есть большой сайт, на котором более 18000 страниц с контентом, которые нужно как-то оптимизировать, а именно проблема с ключевыми словами. Дело в том, что контент там – это не СЕО тексты, а отзывы потребителей по поводу разных компаний, для повышения рейтинга сайта мне нужно как-то улучшить тексты, добавить ключевые слова и т.п. Возможно кто-то знает и может подсказать как можно оптимизировать сразу такое большое количество страниц, как можно автоматизировать весь процесс? Заранее спасибо!:)

Ну, если страницы однотипные - оптимизируйте Title, Description, H1: "Отзывы о компании %name%". В принципе, должно хватить для НК.

А дальше работайте над количеством отзывов (объемом текста) по ВК и СК запросам. Тут, судя по выдаче таких запросов просто объем текста - основной фактор (ну и траст). Вхождения не суть - это же user-generated контент.

ultraZzz...:
BeluginAleksey, посмотрите в сторону https://prodvigator.ua/

у спайвордса база запросов поболее будет

RAFAELKA:
Можно поднять с соц.сети, остальные варианты сейчас не актуальны, ВК сейчас запустили в beta один интересный проект, который позволяет покупать рекламу в пабликах которые хотят зарабатывать, напишите в ЛС я дам ссылку! Проект официальный, имеет домен vk.com с / категорией, выбираете критерии вашего ресурса и получаете тематические предложение которые можно отфильтровать по ценам, не давно смотрел, на мою тематику можно разместить пост за 170р

https://vk.com/exchange ?

Этому сервису 100 лет в обед, какая бета?

Что за тематика сайта? Мож сезонность какая (хотя очень странная)

Алексей Валяев:
Привет, форумчане!
Уже не первый день бьюсь и не могу разобраться. ПОчему посещаемость у сайта (блог valyaeva.ru с уникальными статьями + форум valyaeva.ru/forum) по Гуглу больше Яндекса? Больше в 2 раза примерно.


https://a.pr-cy.ru/valyaeva.ru/ показывает, что в индексе у Гугла 23800 страниц, а у Яши даже больше - 32300


Яндекс какой-то фильтр наложил? Или Гугл просто "больше любит"?
Или нужно оптимизировать блог и форум отдельно?
Ссылками какими-нибудь оживлять?

Что нужно сделать? Что не так?

У гугла и яндекса алгоритмы ранжирования и веса факторов немного разные. У яши, например, факторы ПФ выше учитываются, у гугла (судя по всему) - соц.сигналы.

Плюс гугел чаще реиндексирует веб (ссылки, например, быстрее начинают учитываться).

Да и в целом, много отличий у этих 2 пс.

mongoose59:
Только не от индексации, а от сканирования. На страницах, которые нужно закрыть от индексации, желательно еще в коде <meta name="robots" content="noindex, nofollow" /> прописать.

Ну что за бред вы несете?

Robots.txt — текстовый файл, который содержит параметры индексирования сайта для роботов поисковых систем.

https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml

vasya_:
Ну а почему например, хорошего трафа не будет на сайте с интересным и уникальным контентом?
Да, это будет довольно долгий процесс, но дешевый.

Дешевый? Интересный и уникальный контент априори не может быть дешевым. Хоть вы сами его пишете (тратится куча времени), хоть отдаете на аутсорс (куча денег).

Плюс поисковикам надо дать понять, что данный контент интересный. Для этого нужно, чтобы по этому контенту накопилась какая-то апостериорная (поведенческая) информация, для этого нужен трафик. Что также влияет на бюджет некисло.

Да и фиг поймешь, учитывает ли тот же самый гугл ПФ, или не учитывает.

prodvigator/spywords

Пробегитесь по конкурентам и соберите семантику по статьям в топе.

Я вообще делаю так:

собираю основные ключи для статей (верхушки, так сказать), а хвост добираю таким образом - собираю спайвордсом урлы из топ-5 и из этих урлов выцепляю ключи, которые в топ-20 болтаются. Получается вполне сносные постраничные ядра (нужно чистить, конечно, от дублей и мусора, зато не пропадают "хвосты" и синонимичные запросы + нет проблем с омонимией). Что-то вроде обратной кластеризации, т.е. я не готовый набор запросов раскидываю по группам, а, наоборот, по исходным запросам собираю группы.

Но это оптимальный вариант в случае статейника (когда ключей туева куча и на кластеризацию разориться можно). Если ключей немного, возможно, лучше кластеризовать уже собранную базу

Всего: 76