Лучше вклада в Сбере под 15% годовых ничего нет!
Что-то после такой оригинальной рекламы даже уже и не хочется пользоваться вашей системой съема позиций якобы по "настоящей выдаче".
Сравнение с Дзеном - это, конечно, топ.
тут я вижу что тему назвали про анализ внутряка а обсуждают техничку и сканеры.
Как бы есть какойто диссонанс - ведь внутряк это и линковка и онпейдж и контент, а не только 404 и редиректы
Screaming Frog своего рода стандарт пользовательских SE краулеров.
Кстати, ты часто им на практике пользовался? Я, наверное, всего пару раз, т.к. есть Лабрика + данные из Яндекс.Вебмастера лучше всего парсят весь сайт и все его ошибки)
Но всегда интересно услышать новую информацию о старых инструментах.
Это задачу выполняет SEO специалист.
2) Нецелевые (просто служебные) страницы сортировок (например уменьшение/увеличение по цене) и прочее - оформлять через clean-param и/или через соответствующий новый раздел Яндекса для указания get параметров, чтобы они не учитывались и не плодили дубли.
Это, кстати, интересный дискуссионный вопрос. Раньше, по старинке, всякий get-мусор, генеренку фильтров и проч. перекрывали тупо в robots через Disallow.
Потом получил развитие инструмент Clean Param (в Яндексе).
Какого-то разительного отличия, честно говоря, я не заметил при использовании этих инструментов. Однако в теории это выглядит так:
Disallow — понимает и Яндекс, и Google. Страница перекрывается от индексации, экономится краулинговый бюджет ПС. Однако нет склейки и передачи так называемого "веса" основной странице (категории, подкатегории, товара etc).
Clean Param — понимает только Яндекс. Страница перекрывается от индексации + склеивается с основной категорией и передает ей "вес".
rel="canonical" — понимает и Яндекс, и Гугл. Склеивает с основным урлом, перекрывает от индексации.
Тег "noindex" — понимает и Яндекс, и Google. Вес не передает, по сути аналог Disallow в robots.Соответственно, сейчас скорее всего лучше проставить Clean-param + canonical, чтобы удовлетворить и Яндекс, и Google. Но тут нужны настройки на программном уровне, для каждой категории нужно указывать свои урлы для тега rel="canonical". Если на это нет бюджетов или технической возможности, то ставим старый дешевый Disallow в robots. )
Вот, кстати, недооцененный комментарий. Я таких кейсов не слышал. Но тут вообщее все depends.
Есть проекты, где ниша настолько узкая, что там и выкладывать нечего. Есть проекты, где действительно есть гора контента, и там, конечно, лучше постоянно сайт обновлять этим самым контентом.
Конкретно про кейс из старпоста - я бы выложил сразу, если в дальнейшем есть контент-план по регулярному наполнению. Важно, конечно, чтобы сами страницы были полезны, а не сгенеренное чатом хрючево.
Почему не должно быть Телдери? Если решил купить или продать проект, а flippa запрещает, то куда податься если не на неё?