Антоний Казанский

Антоний Казанский
Рейтинг
787
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
peshimon :
Крауд прогон?

Крауд и прогон - это взаимоисключающие понятия.

Выше вам правильно указали. Прогон - это спам по открытым источникам или в лучшем случае автоматическая/полуавтоматическая регистрация в тематических справочниках. Здесь есть свои специалисты.

Крауд или крауд маркетинг - это перманентное присутствие и информационные посевы в соц. сетях, в сообществах, на форумах и порталах с целью продвижения бизнес интересов через профессиональную экспертизу. Это специалисты совершенно другого уровня и бюджеты там не в разы, а на порядок.

Есть конечно и более мелкие спецификации типа внедряться на форумы, прикидываться новичком, задавать вопросы и через диалог выполнять посевы. Это действительно работает. 

Holly Judge #:
В тематике на 1-ой позиции CTR (по крайней мере у меня, там где лидер ниши семантику проворонил) около 70%. На 2-ой позиции уже не выше 10%, чаще даже около 7%. Как я понимаю, CTR на выдаче – это один из самых важных ПФ. Т.е. если я правильно понимаю, легальными методами эту ситуацию в Яндексе не переломить?

ПФ состоят не только из этого показателя, но в настоящий момент он главный. 

Если вы не готовы на какие-то глобальные модернизации и емкие стратегические решения, которые гипотетически могут привести к улучшению ПФ, то - да, легальными методами увеличить CTR в выдаче скорее всего не получится.


Holly Judge #:
У вас был опыт, когда вы по частотному запросу лидера ниши в Гугле смещали по определённому запросу с топ-1 и сами туда свой сайтик ставили только за счёт ссылок? Как действовали? Точным анкором долбили? Разбавляли? Много денег на ссылки ушло, чтобы это провернуть?

Смотрите. Я никогда не ставил себе принципиально-амбициозных задач сместить конкретного единичного конкурента. Т.е. не прорабатывал рабочую стратегию так и только так, что прям в отдельный запрос и для отдельного конкурента. Я этого не делал, потому что всегда было множество других точек роста, достижение которых были более ясными и отчётливо прогнозируемыми.

Вопрос - сколько конкретно ссылок, для конкретной топовой позиции - всё это определяется внутренними факторами ПС, расчёт которого никому не доступен, поэтому здесь сугубо практическим путём.

Что-то решается ссылками, что-то решается только возрастом, накоплением контента и ростом аудитории.

В любом случае и то, и другое вам надо делать. В какой момент мы сможете приблизиться и сместить - всё в практической динамике, никто вам не даст конкретных цифр и сроков. 

Это всё равно, что дожить до 35 и вдруг озадачится вопросом - на каком году жизни у вас начнут заметно проявляться возрастные изменения. Некоторые процессы недоступны для привычного и детализированного расчёта, вы просто стараетесь сохранять позитивные рабочие тенденции и формируете гипотезы на основе более коротких оперативных данных. 

Родион #:
А если только картинки товаров на 100% будут одинаковыми на втором сайте. - Будет ли это поводом наложить  аффилиат?  (их просто сложно искать и менять)

Если только картинки (при условии, что тексты, описания, UI/UX разное), то таким образом шансы вы увеличиваете, но лишь гипотетически.

Как уже сказали выше, аффилиат-фильтр сейчас в Яндексе не работает, но это не значит, что дальше так и будет продолжаться, поэтому лучше делать стратегические расчёт не на ближайшие месяцы, а годы.


Родион #:
Все остальное - отличается (IP, телефон, адрес, текста, названия). 

Пробуйте. Но если конкуренты будут упорствовать и докажут, что второй сайт лишь имитация и Яндексу будет надо убрать его из выдачи - уберут, несмотря на различия. 

Ключевое здесь - "будет надо убрать".

FastMarketing #:
Для специалистов с большим опытом готовы рассмотреть ЗП до 70 тыс

Возможно, мой совет окажется вам полезен - укажите оплату почасового труда (это будет гораздо нагляднее и на мой взгляд более конкретно).

Bozhkov_K :
подозреваю что нужно что-то делать. Вопрос – что?

Проверять насколько корректно решены все технические вопросы по оптимизации индексирования которые влияют на краулинговый бюджет, а именно:

1) Корректная генерация XML карты сайта с правильными датами обновления и передачи данных в <lastmod>

2) Закрыть для индексации всё служебно-ненужное, проверить возможные дубли движка (удалить, убрать лишние выводы, закрыть индексацию)

3) При вашем объёме актуальна поддержка Last-Modified и Last-Modified-Since - разобраться что это такое и также внедрить

4) Физически пройтись программным краулером по сайту (например, Screaming Frog) на предмет возможных циклических адресаций, битых ссылок и т.д.

5) Использовать Indexing API (в том числе и не постоянной основе) для удаления/обновления требуемых URL (в Консоле возьмёте конкретику по URL адресам)

6) Уже факультативно - проверьте/внедрите (если её нет) - перелинковку.

7) В особых случаях надо смотреть по логам куда долбиться Гугл. Если он постоянно долбиться на какие-то отдельные страницы, тоже надо разбираться по ситуации, почему это происходит - тут по обстоятельствам.

8) Проверить разницу межу содержанием отрендеренной страницы и неотрендеренной (Screaming Frog  позволяет это сделать).  

По хорошему, надо проводить техническую ревизию вашего сайта, наверняка есть проблемы, которые могут быть для вас в слепой зоне.

Всё вышеуказанное влияет на поисковую квоту (на краулинговый бюджет). Поищите материалы на эту тему, у Шакина с Dr.Max-ом точно был видео выпуск (и не один) на эту тему, погружайтесь, определённые детали оттуда почерпнуть будет весьма полезно. 


Holly Judge :
в целом неплохо ранжируется и в Яндексе
Holly Judge :
но есть некоторые кластеры, по которым страница не находится
Holly Judge :
если вбить самый частотный ключ из кластера в поиск
Holly Judge :
При этом, если добавить какое-то слово их хвоста – сайт на первом месте в Яндексе.

Это значит не хватает поведенческих сигналов, связанных с данным ключом.


Holly Judge :
Если с конкурентами сравнивать – у меня лучше страница под запрос заточена

Лучше по каким критериям? 


Holly Judge :
Как думаете, куда поднажать надо, чтобы именно в Яндексе частотный запрос стал нормально выходить в топ?

В Яндексе, очевидно, нужно делать упор на поведенческие, но для высокочастотных ключей и главным образом однословников принципиальное значение имеет возраст и траст, поэтому здесь комплексно заниматься развитием.


Holly Judge :
Добавить тот же раздел статей по теме и перелинковать на страницу, которая не выходит в топ по частотному запросу с нужным анкором?

Как доп. мера - можно, но если в вашем запросном индексе мало сигналов по поведенческим, то увеличение кол-ва статей и перелинковка значимой роли не сыграет.

_Игорь #:
Так что дело, похоже все таки в регионе, плюс, наверное, действительно данные XML отличаются от органики. Может устарели. А может еще что.

Принципиальный момент не в этом.

Когда изменение релевантности имеет место быть, то оно может этапно раскатываться в XML выдаче, а потом появляться в пользовательской выдаче.

Поэтому здесь надо выждать несколько дней и проверить результаты. Устоявшийся результат должен совпадать. Следовательно, когда релевантность действительность изменилась и результаты закрепились, то спустя время вы их увидите и там, и там.

Holly Judge :
Страница по самому главному ключу на 2 позиции в Яндексе и в Гугле.
Holly Judge :
Можете набросать примерный алгоритм над чем стоит поработать под Яндекс и под Гугл (слышал, они разное любят)

Яндекс - упор на поведенческие, Гугл - на ссылки

alaev #:
Интересно, а почему Яндекс в суде не стал накидывать лапши судье на уши про нейросети, которые не пропускают фейковые отзывы?)))

Насколько я понял, Яндекс вообще проигнорировал судебное заседание, вследствие чего судом было принято, что конкретных лиц, написавших все эти отзывы установить невозможно, а следовательно Яндексу отправили предписание удалить все эти отзывы, что Яндекс (насколько я понял) и сделал.

_Игорь :
Непонятно, также, из-за чего так?

Игорь, релевантность страниц может меняться вследствие перерасчёта факторов релевантности внутри страницы. 

Если у вас это происходит не разово, а систематически, значит нужно проверять:

а) ключевую плотность

б) рабочую перелинковку

в) смотреть поведенческие по конкретному проблемному документу

В идеале вы и именно вы заранее должны чётко знать, какая страница у вас является целевой (т.е. посадочной) для релевантности по конкретным запросам и прицельно работать по вышеуказанным пунктам.

Если есть недоработки, перекосы или вообще нет чётко представления, какие страницы у вас являются целевыми по конкретным запросам, то - да, будут возникать ситуации, когда одна страница по релевантности будет перекрывать другую. 

Различные SE сервисы могут хранить и показывать устаревшую информацию, более того, чаще всего они работают через XML запросы, а вот их результаты действительно могут расходиться с теми, которые вы можете видеть при обычном пользовательском запросе.


_Игорь :
Причем, из разных регионов посмотрели - ситуация повторяется.

Да, в разных регионах результаты могут отличаться до тех пор пока значения не устоятся. 

Всего: 12575