Badmaestro

Badmaestro
Рейтинг
265
Регистрация
11.07.2008
Должность
SEO-специалист
Интересы
Видео, музыка, книги. Стандартный набор
NewReiter #:
копипаст
Ирина Заварзина #:
копипаст и дубли,
Ну, логично, что были мпк, не?
leoseo #:

Лучше вклада в Сбере под 15% годовых ничего нет!

Надеюсь, это была ирония.
Vladimir SEO #:
у них постоянно проблемы. Сегодня снимал также топвизором -он мне частично не показывал позиции на первой странице
Позиции скачут в январе-феврале через Топвизор?

Что-то после такой оригинальной рекламы даже уже и не хочется пользоваться вашей системой съема позиций якобы по "настоящей выдаче".

Сравнение с Дзеном - это, конечно, топ.

Vladimir SEO #:

тут я вижу что тему назвали про анализ внутряка а обсуждают техничку и сканеры. 

Как бы есть какойто диссонанс - ведь внутряк это и линковка и онпейдж и контент, а не только 404 и редиректы

Ну, Скриминг фрог вроде как тоже позволяет проанализировать внутреннее SEO, так что попадает в общее множество софта, о котором в старпосте написали.
Антоний Казанский #:

Screaming Frog своего рода стандарт пользовательских SE краулеров.

Кстати, ты часто им на практике пользовался? Я, наверное, всего пару раз, т.к. есть Лабрика + данные из Яндекс.Вебмастера лучше всего парсят весь сайт и все его ошибки)

Но всегда интересно услышать новую информацию о старых инструментах.

Антоний Казанский #:

Это задачу выполняет SEO специалист.

2) Нецелевые (просто служебные) страницы сортировок (например уменьшение/увеличение по цене) и прочее - оформлять через clean-param и/или через соответствующий новый раздел Яндекса для указания get параметров, чтобы они не учитывались и не плодили дубли.

Это, кстати, интересный дискуссионный вопрос. Раньше, по старинке, всякий get-мусор, генеренку фильтров и проч. перекрывали тупо в robots через Disallow.

Потом получил развитие инструмент Clean Param (в Яндексе).

Какого-то разительного отличия, честно говоря, я не заметил при использовании этих инструментов. Однако в теории это выглядит так:

Disallow — понимает и Яндекс, и Google. Страница перекрывается от индексации, экономится краулинговый бюджет ПС. Однако нет склейки и передачи так называемого "веса" основной странице (категории, подкатегории, товара etc).

Clean Param — понимает только Яндекс. Страница перекрывается от индексации + склеивается с основной категорией и передает ей "вес".

rel="canonical" — понимает и Яндекс, и Гугл. Склеивает с основным урлом, перекрывает от индексации.

Тег "noindex" — понимает и Яндекс, и Google. Вес не передает, по сути аналог Disallow в robots.

Соответственно, сейчас скорее всего лучше проставить Clean-param + canonical, чтобы удовлетворить и Яндекс, и Google. Но тут нужны настройки на программном уровне, для каждой категории нужно указывать свои урлы для тега rel="canonical". Если на это нет бюджетов или технической возможности, то ставим старый дешевый Disallow в robots. )

Snake800 #:
А много ли в этом мире было выполнено тестов, когда создавалось какое-то количество сайтов и половина из них выкладывалась сразу, а половина постепенно? Чтобы, скажем, через год можно было объективно оценить и подтвердить эффективность каждой из методик не на уровне домыслов и городских легенд, а фактами?

Вот, кстати, недооцененный комментарий. Я таких кейсов не слышал. Но тут вообщее все depends.

Есть проекты, где ниша настолько узкая, что там и выкладывать нечего. Есть проекты, где действительно есть гора контента, и там, конечно, лучше постоянно сайт обновлять этим самым контентом.

Конкретно про кейс из старпоста - я бы выложил сразу, если в дальнейшем есть контент-план по регулярному наполнению. Важно, конечно, чтобы сами страницы были полезны, а не сгенеренное чатом хрючево.

MrPi #:

Почему не должно быть Телдери? Если решил купить или продать проект, а flippa запрещает, то куда податься если не на неё?

Телдери живет засчет своих комиссий. Сегодня количество сделок, как мне кажется, значительно сократилось. Соответственно, доходы сократились. Чем меньше сделок, тем меньше дохода, и тем выше вероятность убыточности для фирмы и, как следствие, закрытия.
Удивительно, что Телдери и индустрия информационников еще живы как-то вообще.
Всего: 2067