inseonight

inseonight
Рейтинг
170
Регистрация
10.10.2008

И получите +1 внешнюю сквозную ссылку, определяемую вашим же плагином и уменьшите раскупаемость ссылок в Sape...!

Вот это акция 😂

Exillon:
dorzentovan.com
тиц 20
Ребята че двадцатки тиц никому не нужны? :)

Зажрались 🤪

А по теме, посмотрите бэки и все поймете.

SmileP, да, я не точно выразился, однако подразумевал и то и то.

Valeriy, лучше закрывать все дубли от индексации.

По поводу меток - метки в принципе можно использовать..., только правильно....

Большинство это делают неправильно.

К примеру есть вот такой текст про розовых слонов:

В нашем зоопарке в основном живут розовые слоны, зеленые мартышки и черные попугаи, так как для них условия более подходящие, а вот коричневые слоны у нас не прижились. Розовые слоны - прекрасные животные. Кроме птиц люди любят наблюдать за жизнью животных и очень хотят увидеть насколько прекрасны коричневые слоны.

В титле: Розовые слоны - гордость нашего зоопарка!

Перегружать титл разными по смыслу запросами мы не хотим.

Смотрим, что статья релевантна не только запросу "розовые слоны", но и запросу "коричневые слоны" - мы делаем метку ="коричневые слоны"

и ситуация в корне меняется.

Мы получили ещё одну страницу, с титлом релевантным контенту.

Таким образом, если ставить метки не от балды и их количество не 100500 на страницу, придерживаться правила релевантности, то можно получить дополнительный трафик по нч.

Надеюсь донес мысль, но все равно я противник дублей.

Ваш запрос ищут всего ~7498 человек в месяц, а не 30000...и кроме этого это геозависимый запрос.

Согласен с Vaan32 по поводу знаний и сроков.

имеется некоторый бюджет на раскрутку (около 2-5 тыс. в месяц)

Вполне хватит, что бы вытащить запрос по Москве.

wwwp:

Сеопульт это дорога в никуда, что рекомендации, что ссылки .

В умелых руках и сеопульт работает ☝

ТС, дело скорее в ссылках, видать переборщили с прямыми вхождениями ключа в анкоры, - попробуйте разбавить анкор лист.

Вот здесь описаны простые рекомендации, которые могут решить вашу проблему.

Вот тут примерно изложил суть решения вашей проблемы.

Возможно дело в том, что 2z возможно более быстро отдает страницы роботу и он успевает скушать больше страниц за "единицу времени".

Движок сайта вообще не причем.

Человеческие уникальные титлы для каждой страницы.

Релевантность титла контенту страницы.

Релевантность h- тегов контенту страницы.(а не как обычно <h1>Категории</h1> или <h2>Облако меток<h2> итд)

Контент страницы уникальный и не переспамлен ключами.

Отсутствие дублей.

Внутренняя перелинковка страниц.

Правильная обработка 404 ошибки.

Xml карта сайта.

Robots.txt.

Валидный код.

Быстрая отдача страниц роботу(шустрый движок или хороший хостинг).

Постоянное добавление нового контента на сайт(см рекомендации выше) и поисковый робот будет жить у вас на сайте! И не будет никаких проблем с индексацией и выпадением страниц из индекса.

Про эти простые правила большинство забывают... или забивают...))

Сайт успешно продан danmaster, документы на перерегистрацию домена на его имя отправлены в рег.ру.

Всем спасибо за участие.

xamtal:
Сайт был на 35 позиции в яндексе по вч нк запросу, с последующим апдейтом сайт просел до 45

это скорее всего скушался новый текст

а дальнейшее падение это ссылочки, не то что бы они плохие, просто они не те... смотрите в сторону анкоров...

Всего: 1272