Stasmotion

Stasmotion
Рейтинг
177
Регистрация
16.11.2011
WSairus:
Разный порядок слов использую, но за основной беру более частотный вариант, а словоформы ключевого слова употребляю в тексте не более 1-2 раз больше для естественности. Иногда (редко) страница выстреливает как по основному ключу, так и по его вариациям, но чаще только по основному ключу.

Вообще насколько оправданы такие телодвижения?

1. Парсинг с букварикса

2. Сбор частотностей "!слово" в кейколлектор через директ за год http://take.ms/r7Q9b

3. Удаление 0

4. Сбор частотностей "[!слово]" с вордстат

5. Удаление 0

Profin:
Да, разница есть.
Но как правило не использую, а просто беру наиболее популярный ключ. Позиции от перемены местами слов разнятся не на много.

В том то и дело что в некоторых случаях разнятся прилично. В моем же примере:

домен

https://televizor.msk.ru/

в одном виде запроса есть в ТОП-10, а в другом уже нет

http://moskva-televizor.ru/

2 и 9 место - разница приличная

Для начала необходимо правильно оптимизировать страницы под соответствующие запросы, вполне возможно, что после оптимизации некоторые из запросов сами попадут в ТОП. Только потом уже можно и ссылками.

tackter:

Прочитал, что атрибуты nofollow и noindex забирают вес страницы, пусть и в никуда, но тем не менее забирают.

Забирают ровно столько же, сколько у вас в 2х литровом пакете остается сока, который никак не получается вылить 🤣

UserControl:
Stasmotion, еще раз спасибо.

Общую концепцию вроде бы уловил. Остался последний вопрос.

У меня сейчас ссылки на сайте имеют вид "http://site.ru/krasnodar-stavropol" т.е. без слеша на конце. Лишний геморой в .htaccess и дополнительные танцы с бубном, усложняющие php код.
Я размышляю о смене url к виду: "http://site.ru/krasnodar-stavropol/" т.е. со слешем на конце.

Если я на старых страницах сделаю редирект на новые со слешем и отрерайтю контент в соответствии с выше написанными рекомендациями. А после индексации новых страниц, старые удалю.

Как это скажется на ранжировании новых страниц? Резонно ли так поступить? Внешних ссылок на страницы нет.

Это грубейшая ошибка. Делайте в htaccess редирект со слеша на без слеш:

RewriteCond %{REQUEST_FILENAME} !-d

RewriteCond %{REQUEST_URI} ^(.+)/$

RewriteRule ^(.+)/$ /$1 [R=301,L]

UserControl:

По поводу заспамленности вопрос. Изучил конкурентов, да и свои тексты покрутил в техт.ру. Удалось снизить заспамленность до 45%. Приемлемо это или еще нужно уменьшать?

Нет никаких магических цифр 40,50% и т.д. А уж в тем более по всяким сервисам проверять, каждый сервис покажет свои данные. Если бы было все так просто..

Сравнивая с топами, у них сильно ниже вхождений Апшеронск, такси, Краснодар и т.д.

В условиях того что вы под фильтром - необходимо значительно снизить эти вхождения - и смотреть как будут вести позиции.

Я всегда делаю так - снижаю до минимума, жду переиндексации 2-3 недели, смотрю снялся ли фильтр. Будете болтаться на 10-20 позиции - потихоньку добавляете вхождений до достижения ТОПа.

Также не факт что какой-то конкурент не отвалиться через месяц-другой схватив такой же фильтр.

serp_1:
Есть 100 доноров
serp_1:
на каждую страницу ссылку оставлять с разных сайтов?

100 доноров - 100 разных сайтов - или я что-то не понимаю?

Добрый день! В вебмастере уведомлений о бадене нет?

На примере "такси краснодар апшеронск". Вполне вероятен этот фильтр.

Неестественные конструкции вида "А сэкономить свое время и сберечь нервы - Вы можете заказав такси Краснодар – Апшеронск в нашей компании." не допустимы.

Очень много вхождений такси Краснодар – Апшеронск. Нет замен на "из Краснодара в Апшеронск" - у конкурентов есть.

Дубль контента внутри сайта вот этого блока http://take.ms/R7YdU - закрыть в <noindex>.

В тексте используйте подсветки из выдачи, слова задающие тематику и lsi фразы.

Сократите количество вхождений "такси Краснодар – Апшеронск" их действительно много и переспам.

У всех конкурентов есть красивый выбор класса авто с ценами http://take.ms/SwUU5 - в плане дизайна и ПФ у вас хуже.

Почему изначально попал в топ? Быстроробот и не было фильтра изначально.

Windakolit:
Рискуете получить аффилиат фильтр от Яндекса.

Какой риск? Если будут разные телефоны и адреса то все ок. Услуги то на 3-х сайтах разные совсем.

lutidza:
К ссылке на главной странице подставляется параметр ?placement=podkormka.guru&device=c, возможно на каком-то внешнем сайте стоит ссылка на ваш с таким параметром, а в роботс такие урлы у вас не закрыты.
можно попробовать прописать в робост:

Disallow: /*?
Allow: /*?PAGEN*

Последняя строка открывать для индексации страницы пагинации, так как они тоже содержат восклицательный знак. Так же нужно проверить сайт на наличие урлов с восклицательным знаком и предназначенных для индексации, их тоже нужно разрешить индексировать.

В роботсе все сейчас закрыл конечно. Видимо действительно где-то стояла внешняя ссылка поэтому и проиндексировалось. Были просто опасения за уязвимость.

Вообще должны подобные страницы 404 отдавать?

site.ru/?lalala

Потому что у нас после "?" можно все что угодно написать и 404 не работает в этом случае.

Всего: 461