iLeg0

iLeg0
Рейтинг
59
Регистрация
12.08.2010
Интересы
seo, программирование
Сергей Нижегородцев:
Да, в Топвизор еще

там же есть съем позиций по мобильной выдаче

SmileP:
Эксель- наиболее актуальный инструмент для аналитики)
Для снятий позиции- топвизар и кейколлектор.

Вот кстати, интересно, кто-нибудь пользуется какими-то собственными инструментами написанными под себя?

Ну или там Python'ом/SQL'ем

Excel - это конечно очень хорошо, но собирать кучу метрик и агрегировать все для больших сайтов (от 10 000 страниц, хотя бы) - это лютый треш.

Особенно, если нужна история по данным и постоянное отслеживание групп страниц на предмет падения трафика, выявления причин падения и т.д.

Вариантов несколько:

Вручную (дешево):

- собираете список ключевиков и парсите по ним выдачу

- рассчитываете видимость по сайтам и сортируете по убыванию

Получаете список сайтов

Полуавтоматически (дороже):

- с помощью serpstat/spywords/adwodka/keysso и т.д. - берете сайт для примера и смотрите его конкурентов по семантике

Camor_:
Откуда так к сведенья? Очередное пустое заявление!

Он про переиндексацию через Я.Вебмастер

Maks_seo_1992:
Страницы пагинации нужны, не закрывайте их и не ставьте rel="canonical", сделайте уникальные тайтлы и h1 и все, нет проблем, как показывает практика, лучше пусть будет так, чем закрывать или делать rel="canonical".
А уникализировать тайтлы и h1 можно элементарно, писать допустим:
1) женские платья
2) женские платья | Страница 2
3) женские платья | Страница 3 и так далее все страницы.

Кому они нужны? Зачем?

Если бы в метатегах и тексте таких страниц хотя бы хвосты продвигались - ладно.

Но в вашем варианте такие неявные дубли только лимит индексации страниц будут отъедать

Had:
Там не написано, что, например:
это:
Disallow: */feed/
и это:
Disallow: */feed
Одно и тоже или нет.

Нет, разумеется, пример - */feed-abc (первым правилом не закроется, вторым - закроется). И там про это написано:

По умолчанию к концу каждого правила, описанного в файле robots.txt, приписывается спецсимвол *
Had:
Есть в сети один сайт. В его роботс.тхт есть такие строки:

Этот роботс сам по себе не совсем корректный, к примеру, эти строки ничем не отличаются:

Had:
Disallow: /*?s=
Disallow: /*?s=*

Что непонятного в указанном robots?

Had:
Исходя из английских слов можно лишь догадываться, а хотелось бы знать точно

Все что нужно знать, чтобы понимать что там написано - это смысл символов * и $, остальное - это части URL конкретного сайта

Miha Kuzmin (KMY):
Юноша, вот возьмите пачку больших магазинов, да проверьте, есть ли трафик на пагинации, или нет его.

Вы хоть поняли, что предлагается? 😂 Судя по первому предложению - нет.

Сбор витального трафика конкурентов? Иных запросов, которые нельзя было бы развести на фильтры я не нашел

Miha Kuzmin (KMY):
Находится, и много.

Почему эти запросы нельзя вынести в фильтры?

То что вы предлагаете - какое-то извращение напоминает. Пагинация явно не для этого нужна.

burunduk:
а кто сказал что это не делается?

а кто сказал что это делается?

Я лишь высказываю свои мысли. Людкевич как-то слишком агрессивно порицает топовую кластеризацию, однако я не вижу других автоматических способов разбора больших ядер без подстройки алгоритма под каждую конкретную тематику и случай (этот запрос надо сюда, а эти 2 можно совместить на одной странице). Слишком много частностей и нюансов.

Как и не вижу причин НЕ использовать факторы топовой кластеризации совместно с другими факторами (с подстройкой весов).

Miha Kuzmin (KMY):
Russian Traveller, то же что для яндекса. При такой схеме мы теряем вообще весь трафик с пс на страницы пагинации.

Что может быть полезного для ПС на страницах пагинации?

Фильтры - понятно, можно какие-то запросы отдельные продвигать, но что можно продвинуть на странице с Title "Зеленые слоны - страница 123"?

Или вы имеете в виду индексацию страниц товаров через пагинацию? Эту проблему, имхо, не через пагинацию нужно решать.

Всего: 76