Антоний Казанский

Антоний Казанский
Рейтинг
787
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
Vladimir SEO #:
Все спецы рунета подтвердят что это невозможно, поймали сказочника

Подтверждаю.  Start Seo заявляет, что работает 2-ой месяц, но динамика круто вверх идёт уже в первые дни.

Полный цикл работ с Гуглом не укладывается в часы, поэтому либо вводите в заблуждение, либо подтасовываете факты, либо выдаете одно за другое.

aristocrat #:
Сегодня написали, что вопрос решен, но нужно подождать пока обновятся страницы.

Из написанного следует, что проблема была на их стороне или на стороне сайта?

peshimon :
Как быстро сделать или где купить готовые статьи?
peshimon :
Хочу дать ключи по кластеру, количество символов, метатеги. А на выходе получить готовую статью с оформлением и фотками.

Соглашусь с коллегами, что биржевые статьи рассматривать не стоит.  Это раньше было актуально набивать статейный раздел тематическими статьями абы для контентного развития и перелинковки. Сейчас скупать статьи с Адвего - напрасная трата денег. Если не сможете найти того, кто будет прицельно грамотно и вкусно писать с использованием приёмов контент-маркетинга, то лучше не делайте вообще.

Все эти "семечные" рерайтно-водинистые статьи пользователям не нужны. Из дешевых биржевых статей вы ничего не выжмите - это либо унылые, либо наивные, либо претенциозные тексты написанные только ради объёма и продажи. Чтобы писать хорошие тексты, нужно очень хорошо себе представлять все срезы вашей ЦА и вашу товарную специфику. 

Поэтому, либо вкладывайтесь в хорошего копирайтера, который не шарахается от сокращений типа AIDA, либо, если не по карману - направьте бюджет на освоение новых рекламных каналов. 

Silvester #:
Не посоветуете ли Вы такие курсы?

Хорошие материалы у Нетологии, Специалиста (Бауманка), Udemy, Skillbox, по семантике и структурному проектированию можно послушать Ожгибесова, Кокшарова, Шахова. Со временем окунитесь в SILO структуру и семантические коконы - у Dr.MAx-а интересные материалы на эту тему.

Думаю, достаточно.


Silvester #:
Я прослушал https://youtube.com/playlist?list=PLItv92ZPiExh4vzURgfMqojFsJdQQLqFx и сейчас слушаю https://www.youtube.com/playlist?list=PL3MUz5vmQVkIMR4k2IGQlzsiLqDRB06WU - но, может быть, я слушаю что-то не то? Я никак не могу оценить качество найденного.

Насыщайтесь и дополняйтесь разнородной информации, у каждого свои подходы, взгляды, инструменты, хотя конечно база одна.

lutskboy :
RewriteCond %{QUERY_STRING} vid=(.*?) [NC]

По-моему, знак вопроса лишний, он вероятно обрезает, ибо вариант нежадного квантора.

Silvester :

По инструкциям я разобрался (?), как строить и кластеризовать СЯ, сейчас буду этим заниматься. Предположим, у меня получится 30 кластеров. Что с ними делать? Для каждого кластера подобрать какую-нибудь вебстраницу из имеющихся просто по смыслу? Например, кластер A (самый высокочастотный) по смыслу подойдет для статьи А (3-ий уровень вложенности), а кластер M (середнячок по частотности) - дляглавной страницы сайта?

Или переделывать структуру сайта - при том, что имеющаяся структура предположительно идеальна и любая переделка ухудшит ее для людей?

Или что-то третье?

Вы задаете вопросы, которые затрагивают и структуру, и формирование семантического ядра и кластеризацию.

Эти вопросы надо решать на примере конкретного сайта. Череда ваших вопросов указывает, что вам нужно объяснять тематический материал на несколько часов подробных разъяснений. Вряд ли кто-то будет этим заниматься в формате ответа на форуме.

Поищите для начала SEO курсы по семантическому проектированию и кластеризации запросов - в интернете масса материалов. 

А потом уже конкретный вопрос - с конкретным примером своего сайта спросите на форуме - поможем вам точнее определиться с рабочим решением.


Потому что, когда вы спрашиваете,

Silvester :
Или что-то третье?

То исходя из того, что вы написали - там и третье, и четвёртое, и пятое. 

Алеандр #:
То есть, все же, директивы в роботс на практике запрещают индексирование, независимо от того, что у них написано в помощи. Я же написал выше, можете лично это проверить в консоли. И это будет не написанное в хелпе, а практическое применение. Я ориентируюсь именно на него, а не на теорию.

Допустим. А как тогда вы, опираясь на свою уверенность и логику, обоснуете вот такой практический случай ?

p.s. Заранее оговорюсь - мне в этом вопросе не нужна помощь или какие-либо рекомендации.

Пример и вопрос именно в контексте запрещения индексации в robots.txt

katz666 #:
типа all in one seo для WP Блокировщик вредных ботов? - так там гуано

Если WP, то можно посмотреть здесь.  Насчёт того или иного компонента для WP я ничего не скажу, я сам работаю с Joomla-ой и меня вполне удовлетворяет RSFirewall.

Какой из них гуано, а какой нет тоже комментировать не берусь, познакомиться с функциональностью в любом случае будет нелишним, а там уже конечно каждый выбирает для себя. 

 


katz666 #:

да я в курсе, это просто была рабочая модель, на бурж оставлю только зарубежных, а их не так много, как ру- и укр

или реализую через отдельный файл с параметрами IP -1 на каждой строчке, а в htaccess будет 1 общая команда

Если у вас не самопис, а популярная CMS - посмотрите в сторону дополнительных компонентов брэндмауэров, они как правило уже имеют базовые настройки и фильтры для отсекания зарубежных ботов. 

Алеандр #:
Нет смысла за это воевать,

Воевать конечно нет смысла :) есть смысл прислушиваться к коллегам и учитывать их полезный опыт :)


Алеандр #:
достаточно дополнительно в роботс поставить запрет на /*?* и все вопросы будут решены. Для ПС этот вариант будет запрещен к индексированию и они отлично с этим справляются

Увы, недостаточно.

Как практика показывает Гугл инструкции robots может запросто игнорировать, и Яндекс увы тоже варианты /? и /*?* может игнорировать.


Алеандр #:
а по факту, за счет правила htaccess, при реальных значениях, будет редирект или 404, как настроить.

Ну, соб-но, мы это и обсуждаем :)


Алеандр #:
Тогда пустое значение даже не придется вылавливать, оно будет запрещено к индексации, а сам параметр будет не страшен в виде вхождения, поскольку он, опять же, совершенно пустой.

Увы неоднократно сталкивался с ситуаций, когда Яндекс индексировал вариант site.ru/? с копией Главной страницы, при явно запрете обхода в robots-е /?

Поэтому здесь эффективнее действовать через htaccess


Vladimir #:

А смотреть вы должны свой вебмастер, а не мой. И если оно туда попало, то будет долбить не один месяц.
Вы похоже в свой вебмастер совсем не заходите, или первый раз с сайтами работаете? Не похоже по дате...

Естественно не единым вордпрессом. Но дан пример, вы что не в состоянии на его основе сделать под свой сайт?
Или вам, что все на блюдечке с голубой каемочкой?))

Послушайте, что за фанаберия такая? С чего вы взяли, что кто-то должен по вашим наставлениям куда-то смотреть?

Что за высокомерие "вы похоже"? К чему все эти вальяжные гипотезы?

Есть пользовательский вопрос, обсуждается контекст вопроса и ищутся варианты ответа. 

Вы предложили свой - Ok, ваше право. Другие участники форума предлагают свои решения.


Vladimir #:
Тоже сложно пример htacces разобрать?

Мне несложно. Мне ваши примеры под WP не нужны, я даже в них не вникаю, потому что нерелевантные данные мне в настройках не нужны и я пишу нужные мне настройки самостоятельно.  Там где мне надо средиректить лишнее вида site.ru/? и у меня срабатывает редирект на Главную, а также где надо нахрен послать ссылочный спам вида site.ru/?go=http://site.ru срабатывает 403, причём с любым параметром.

В ваших же случаях, которые вы приводили - одно правило совершенно точно будет накладываться на другое, поэтому как минимум они требуют правильной очередности обработки. А второе - не универсально, о чём вам следом сообщили.  

Так что уж если решились помогать - помогайте адресно, в контексте вопроса, а не в контексте личных привычек по своему сайту.


Vladimir #:
Замечу лишь, что роботс вас не спасет от большого количества дублей страниц вида /?****

А вот здесь вы, справедливости ради, надо сказать, правы.


Vladimir #:
Которые будут периодически индексироваться, а потом выкидываться по правилу.

Здесь - нет. Если правилами запрещено, то индексироваться не будет (кроме случаев, когда правила игнорируются).

Поэтому вариантов, что сначала вопреки индексации проиндексировалось, а потом согласно старым правилам удалено из индексации - такого не бывает.

Бывает только в случае, если вы уточняете правила.

Хотя, если вдруг такое произошло, то это аномалия и этот вопрос интересно исследовать. Но в любом случае это нерелевантно общему правилу.


Vladimir #:
Самое главное правило на сайте не роботс, а правило - на сайте не должно быть дублей страниц.

Это понятно. Но иногда дубли возникают не изнутри, а снаружи, когда, например, Яндекс начинает индексировать рекламные страницы по UTM меткам из Директа, которые дублируют оригинальные страницы, поэтому здесь в любом случае идёт доп. настройка через robots.txt   

Всего: 12575