Антоний Казанский

Антоний Казанский
Рейтинг
791
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
Datot #:
Это именно твои суждения

Про показатели, которые должны набираться в рабочей инерции - мои рассуждения.

Выводы "ВСЁ. САЙТЫ создавать больше не стоит - Бесперспективно, т.к.. все места заняты и выйти в ТОП НЕВОЗМОЖНО" - не мои.


Datot #:
Объясни еще народу откуда новый сайт получит CTR, если НЕ благоприятная обстоятельства в погоде и политике?

Погода и политика не влияет.

CTR получает сайт, когда благодаря ключевой плотности и запросному индексу сайт начинает ранжироваться в кликабельной области поиска. Если переходы по запросам случаются - запросы начинают активно расти и подтягивать в поисковую видимость смежные запросы, так от низкочастотного хвоста сайт получает CTR по остальным запросам.

Если стимулировать этот процесс, он идёт быстрее. Если нацелено крутить CTR рабочим запросам - процесс идёт ещё быстрее.

Если надеяться на само собой сложится, то значительное медленнее, либо вообще расти не будет и с поиска будут приходить крохи.


Datot #:
Откуда новому сайту взять CTR? Чтобы потом накапливать  его из поиска?

Из микро и низкочастотной видимости (если она есть).

Также многорукий бандит Яндекса даёт возможность набрать сайту рабочие CTR-ы.

Vladimir SEO #:
ну так еще лучше же

В плане ответственности - да, но в плане стартового капитала - вряд ли.

Vladimir SEO #:
ну а какая разница кто бабло даст ))

Оооо! Колоссальная! Массе ты ничего не должен, а инвесторы просто так деньги не дают :)

Datot #:
ВСЁ. САЙТЫ создавать больше не стоит - Бесперспективно, т.к.. все места заняты и выйти в ТОП НЕВОЗМОЖНО

Я такого не говорил. Всё возможно при должном умении и старании.


Datot #:
Это я перевел для простых людей твои выводы.

Это не мои выводы, это ты обозначил свои выводы.

Мои выводы - можно и нужно работать в направлении акцентов на кликовые (поведенческие факторы), тем более, что информация по Яндексу открыта - можно смотреть и разбираться.

Datot #:
новый сайт в отличие от древней помойки, добраться до топа не сможет НИКОГДА?

Может конечно, только гораздо медленнее и при благоприятных для него обстоятельствах по CTR из поиска.


Datot #:
или вбухать море денег во все возможные инструменты, для получения " в естественной среде"

И вбухивание денег во всевозможные инструменты этому тоже будут способствовать. 

Vladimir SEO #:
краудфандинг например

Володь, это не про инвестора, это про фин. поддержку от массы симпатизирующих :)

Vladimir SEO #:
это накрутка пф)

Так я об этом выше и написал.

Сама накрутка она же на реакции алгоритма базируется, все остальные сайты ранжируются по тем же правилам.

Вот эти кликовые факторы даже с расчётным рангом,


Разница лишь в том, что накрутчики могут массово давить на этот фактор, а в естественной среде эти показатели должны набираться в рабочей инерции.

Bjoerndalen #:
я говорю что Clean-param не выход

Тогда либо Disallow: /? либо noindex на все страницы, которые начинаются с ?.

Самая главная фишка (для Яндекса) - это то, что в Яндексе без нужного CTR по рабочим запросам поисковая видимость по этим запросам расти не будет. На этом базируется накрутка и всё быстрое продвижение в Яндексе.

Вторая главная фишка - это если кроме CTR вы ещё организуете стабильные конверсии, то станете лидерами топа.

Текстовая плотность, перелинковка, ссылки, объёмы текстов, всякие pagespeed-ы для Яндекса глубоко вторичны.

Bjoerndalen :
Это только часть, набор символов после знака "?"

Приведите полный список.

Пока всё покрывается правилом:  yandex-source&hhtmFrom


Bjoerndalen :
набор символов после знака "?" может быть совершенно любая, так что закрытие их от индекса через Clean-param не выход.

Если эта разница в части после "=", то это неважно, какой там набор символов.


Bjoerndalen :
На таких страницах у меня естественно стоит rel=canonical на основную, но яндексу плевать, при добавлении в индекс он пишет "Страница попала в поиск, поскольку во время её сканирования роботом её содержимое существенно отличалось от содержимого страницы по адресу", хотя естественно содержимое страницы идентично основной, но он видимо не умеет это определять.

Правильно, потому что это не ультимативное правило, это лишь рекомендация и Яндекс может переопределить правило (как в вашем случае).


Bjoerndalen :
Также недавно попробовал закрыть их в роботсе строкой Disallow: *? , Яндекс сначала выкинул часть из индекса основываясь на этом правиле, затем опять стал добавлять, то есть и это ему плевать.

Пробуйте Disallow: /?


Bjoerndalen :
Поддержка несет какую-то пургу противоречащую друг другу из сообщения в сообщение.

Что конкретно друг другу противоречит? Приведите последовательно и точно, что у вас вызывает противоречие.


Bjoerndalen :
Склоняюсь к тому чтобы наглухо закрыть все подобные страницы метатегом noindex, но это крайний случай.

Да, это тоже вариант.

Всего: 12687