Антоний Казанский

Антоний Казанский
Рейтинг
791
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
Romanov Roman #:
Если сайты имеют не слишком оптимальную структуру, а статьи между собой перелинкованы далеко не все, то каким образом робот доберётся до всех постов?

1. Оптимальную структуру нужно стараться реализовывать - это первостепенная задача.

2. Все целевые материалы должны фиксироваться в XML карте сайта, через неё поисковик и получает приоритетные сигналы для переобхода (разумеется, когда XML карта есть).


Romanov Roman #:
Яндекс утверждает, что ему достаточно только карты сайта XML для того, чтобы просканировать все статьи и, если документ достоин выдачи, его благополучно добавить в индекс.

Да, всё верно.


Romanov Roman #:
Достаточно ли поисковым системам только одной карты сайта XML, чтобы обнаружить все адреса страниц, предлагаемых Вебмастером для индексации?

Достаточно.


Romanov Roman #:
Может ли робот совершать переобход страниц, переходя исключительно по прямым ссылкам с карты сайта, планируя тем самым краулинговый бюджет?

Может. Контекстные и прочие ссылки внутри документа - это сигналы второй очереди по которым поисковая система формирует очередность для переобхода.

KAPAT #:
Если у вас есть хороший сайт с трафиком, то вы может быть не будете продавать ссылки на биржах, но разместить по договоренности настоящую экспертную статью с ссылкой можно, если ссылка ведет на хороший сайт. Но если достойные на сегодняшний день знаете ссылки можете скинуть 🙏

Видите ли. Если проект построен для серьёзного привлечения трафика, то какиe-то частныe предложения купить ссылку за карманные деньги - это вообще не интересно. Стоимость размещения материала со ссылкой будет примерно от 5 тыс. рублей (на постоянной основе).

Те сайты, которые как раз создаются для монетизации ссылками, они уже либо на биржах, либо в частных сетках, но все они рано или поздно уходят в переспам ссылкам. Усидеть на двух стульях (качественно развивать проект и выгодно продавать ссылки) мало кому удаётся. Либо ты направляешь свою энергию для того, чтобы заниматься развитием аудитории, либо ты продумываешь эффективную схему продажи ссылок и вынужден масштабировать свои бизнес активы.

ronibestplay #:
Не вижу особо смысла заморачиваться с Wordpress если честно.

Переходить на полноценную CMS в вашем случае имеет свой практический резон.

Проблема не в том, что в индексе появилась страница вида  /?a=support и вы её стараетесь перекрыть её для индекса через robots.

Проблем в том, что в целом сайт по части обработки 404 ответов сайт неправильно и у вас в индексе может появляться бесконечное множество дублей Главной и это естественно будет сказываться на ранжировании. Кроме того, наверняка есть и другие проблемы с сайтом с которыми вы ещё не столкнулись, поэтому вопросы нужно решать фундаментально и устранять самую причину некорректной работы вашего ПО, а не точечно устранять последствия неправильной работы вашего сайта. 

Сергей Ермилов #:
Так у него не Wordpress вроде как, самопис, с Wordpress было бы более понятно.

Да, действительно, я не вижу признаков WordPress-а, но в этом случае (по текущему состоянию сайта) содержание можно смело переносить на WordPress, если TC знаком с WordPress-ом и самостоятельно сможет работать с нужными ему материалами.

Ковырять и выполнять настройки самописного сайта хостинг точно не будет.

Fedos_s :
Единственное, что мне приходит на ум, это то, что сайту нужны качественные ссылки, ибо я их практически не закупал. Кто-то сможет подсказать в чем дело?

Дело в том, что нужно уметь искать точки роста и рабочие зависимости.

Помимо того, что продвижение сайта - это конкретная программа (т.е. планируемый набор рабочих действий и результаты по ним), коих, насколько я понимаю, у вас нет и вы занимаетесь сайтом стихийно, - следовательно не понятно, что и как вы делаете и насколько успешно - непонятно.

Главным образом у вас должны быть рабочие срезы поисковой видимости по основным и дополнительным трафикообразующим страницам. Колебания видимости надо фиксировать и определять рабочие гипотезы - что предполагаемо стало ростом поисковой видимости, а что её понижением - из этого делать выводы и определять новые рабочие гипотезы.

Судя по стартовому тексту вы просто плывете по течению и не занимаетесь ни качественным анализом трафика, ни поисковой видимостью, ни проработкой поведенческий тенденций ваших пользователей. Как уже сказали выше, возможно внешние ссылки дадут вам доп. бонус в поисковой видимости и именно здесь может быть для вас точка роста. 

Atlantic #:
С большим числом 404 кодом через полгода сайт получит плохой траст у поисковиков, а если сделать много редиректов на главную, то это такой же плохой сигнал, т.к. ссылка не удовлетворяет интенту. Единственный хороший вариант - восстановить как можно больше страниц с релевантным контентом ссылочному.

В вашей логике получается, что если кто-то где-то на другом сайте поставит ссылку порно анкором, то это обязывает админа сайта - реципиента создавать у себя тематически соответствующие страницы для удовлетворения исходного интента :)

Had :
Смущает 2 раза написанное рел-ноффолоу. Одно из них может противоречить/мешать другому и в итоге ссылочный вес будет утекать?

Кто-то явно перестраховался :) Для тега <img> nofollow не нужен. 

groupwm #:
проанализировал конкурентов и сейчас оказывается я должен ему еще 10 000 рублей в этом месяце, чтобы он продолжил работу

А какие-то данные по конкурентному анализу были представлены?

Romanov Roman #:
Спасибо за ответ, Антоний Олегович!

Пожалуйста.


Romanov Roman #:
Если я Вас правильно понимаю, лучшим решением будет заблокировать страницы пагинации не мета-тегом robots noindex nofollow, а правилом Disallow: /page* в файле robots.txt?

Какую конкретно надо использовать инструкцию в robots.txt я вам однозначно сказать не могу - это зависит от структуры и функциональности сайта. Некоторые CMS по адресам типа /page могут выводить статические страницы (как правило страницы вне структурной иерархии), поэтому для начала нужно видеть сайт и понимать принципы его URL адресации (здесь может быть масса вариантов).

Смотрите какие URL адреса формируют листинги, здесь надо принимать решение с опорой на конкретный сайт. Я вашего сайта не вижу, поэтому не могу сказать однозначно, что вышеприведённый пример будет правильным.


Romanov Roman #:
Скажите, пожалуйста, насколько необходимо в данном случае использование карты sitemap html?
5200 ссылок на одной странице не совсем уместно?

Html карту также нет большой необходимости использовать. Это анахронизм.

Важно правильно использовать все функциональные возможности XML карты (не надо путать с html картой), вот там должны быть не только все корректные адреса, но и даты модификации страниц в теге <lastmod>.

Если у вас крупный новостной/тематический проект с обилием входящих комментариев на материалы страниц, то рекомендуется настроить поддержку заголовком last-modified и  last-modified  since. 

p.s. Также важно будет проверить, что даже изменение  заголовка страницы или meta тега должна отражаться на дате модификации страницы (зачастую этот момент упускают). 

Romanov Roman :
Почему листинг закрывают в роботсе?

Потому что нет никакой необходимости держать листинги ни в поиске, ни в качестве url для переобхода.


Romanov Roman :
Разве для Гугла это не ошибка?

Не является. Это ваше право ограничивать служебные страницы для внимания поисковых роботов.

При правильно реализованной навигации и корректно реализуемой XML карты сайта все эти страницы не нужны, они лишь занимают поисковую квоту, - тогда как её лучше использовать для индексации/переиндексации целевых страниц. 

Всего: 12687