Антоний Казанский

Антоний Казанский
Рейтинг
787
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
Vladimir SEO #:
можно конкретней , о чем, что за наука


Atarion #:
настоящего исследователя с научным подходом днем

Исследователь с научным подходом изучает высокие уровни ауры? Не смешите взрослых людей.


Вашей книге место среди прочих

Atarion #:
книги мошенников да гадалок

разве что в качестве развлечения..

Atarion :
но самое интересное другое - большинство народа почему то, послушав этот момент бурно и яростно отрицают, что в тизерных сетях одни боты))

Паразитный бот трафик есть и в тизерных сетях, и в контекстной рекламе, и в SMM, и в SEO.  Да, он вносит информационный шум и снижает общую рабочую эффективность. Выводы относительно полезности каждого из каналов нужно делать не на основе 1-2 дней работы, а как минимум 2-3 недель. 

Одним советом здесь не обойдетесь. 

По-хорошему, чтобы комплексно оценивать проблемы и рабочие точки роста сайта, нужен доступ в Вебмастер и Метрику сайта.

На вскидку, у вас присутствуют признаки переоптимизации,

Нет необходимости во все поля и заголовки вставлять Нижний Новгород.

C описаниями товаров нужно работать, а не вставлять туда сгенерированные тексты из названий товара.

Словом, ищите SEO специалиста, который будет в комплексе курировать все необходимые вопросы и направления связанные с привлечением органического трафика. 

Само по себе в нужной динамике трафик расти не будет, рабочим процессом нужно управлять.

dengger #:
Вот домену уже 4-5 лет, какой объем ссылок в месяц например необходим, что бы был толк

Чтобы был толк нужно пошагово приобретать ссылки и проверять эффект. Если эффекта нет, значит это неверная точка роста ваших SEO мероприятий. 

Как проверять, что проверять и когда проверять - тоже нужно иметь чёткое представление. Очевидно, что штучные ссылки на конкурентные ВЧ запросы могут не дать эффекта вообще, равно как и десятки приобретенных ссылок. 

Xubart #:
Не всегда. У одного очень крутого магазина реализован фрагмент "-noind" в урлах страниц, которые он не хочет показывать и этот фрагмент закрыт.

Очень может быть, это на усмотрение того, кто им управляет. Возможно именно так им удобнеe.

Свободу творчества и рабочих подходов никто не запрещал.


Xubart #:
Я верно понимаю, что если процесс создания фильтрации бесконтролен, то лучше роботс? 

Наборные пользовательские фильтры, результаты поиска, utm и прочие рекламные метки конечно лучше (и нужно) отсекать на уровне robots-а. Виктор правильно сказал - даже не нужно, чтобы робот по ним ходил и тратил краулинговый бюджет. 

Поэтому задача оптимизатора лежит в плоскости инструкций для robots и в использовании meta для целевых страниц.

Xubart #:
Именно этим мне ограничение через МЕТА и нравится - стоит галочка "не показывать" в админке - есть запрет, не стоит - welcome

И не только вам, но и программисту, который может получать ТЗ о запрете индексации множества товаров с разными признаками и выборочным положением на сайте. В robots же придётся вносить целевые адреса коих может быть бесконечно много и это становится весьма ощутимой проблемой. 

Gagarin12 :
То есть как это красиво преподнести на схеме? Чтобы все участники проекта начиная от контент-менеджеров и заканчивая тестировщиком понимали какой мы сайт делаем и как связаны его элементы.

Всем сразу не угодишь. Если прорабатывать детали для всех - это нужен будет полноценный динамический прототип, времени и сил на который уйдет очень много. Фактически - это полная проектная документация на подготовку уходит не одна неделя, а иногда и месяц.

Как правило на старте строится разветвленное древо и вживую поясняется как что с чем будет соотносится.  Далее в зависимости от приритетов и входящих вопросов для наглядности вносятся дополнения, определяются дополнительные интеллект карты.

Xubart #:
Почему?

Потому что фильтры обычно реализуются масками ?param=чего-нибудь.

Соот-но, в robots-e по данному признаку удобно закрывать все подобные перечни, если это нужно.

Однако всё зависит от конкретной задачи. В целом, robots - это про правила переобхода сайта,  мета - про регламент отдельного документа. 

В результате в вебмастере Яндекса они у одних светятся в "закрыто robots", у других "запрещено элементом noindex".

Яндекс.Вебмастер информирует вас о том, в результате каких инструкций страница была запрещена для индексации.

Это всё равно что ехать в месту назначения по параллельным дорогам. Кто-то так, кто-то так. 


Xubart :
PS Лично мне больше второй вариант нравится, т.к. в именно этой сортировке может оказаться какой то редкий товар и тут по ссылке на него поисковик перейдет.

Будет сильно надо, поисковик всё равно перейдет, как ходит и учитывает nofollow ссылки, как индексирует главную и при явном корневом запрете в robots-е.

Здесь вопрос не в предпочтительности для SEO, вопрос в применительной практике. Групповое назначение noindex в мета тег гораздо удобнее реализовывать через CRM, нежели прописывать сотни, тысячи, а иногда и десятки тысяч адресов в robots которые в определённый момент времени необходимо запретить для индексации, а потом разрешить. 

Для крупных интернет магазинов это зачастую актуально. Но это что касается товаров, служебные разделы и адреса необходимо закрывать в robots-е.

И насчёт фильтров - есть фильтры как перечни, а есть целевые посадочные фильтры как рабочий кластер. Поэтому фильтр фильтру рознь.

Всего: 12570