Антоний Казанский

Антоний Казанский
Рейтинг
787
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
softerra #:

Здесь урлы нормальные. /forum/1085544/page2

А если бы было такое в конце:

/naskolko-realno-vazhny-urly-chpu-dlya-ranzhirovaniya-sajta

То это было бы плохо.

ЧПУ - это технология, конкретные названия страниц и использование их в URL уже определяет вебмастер.

Но даже и с длинным названием (когда оно вменяемое) ничего страшного.

p.s. Но если не доверять общим категоричным репликам на форуме, а открыть слитые факторы Яндекс, то вы найдете десятки наименований факторов, связанных с URL значениям.

Как минимум Яндекс и кол-во слэше считает, и BM25 по содержанию рассчитывает, и триграммы в значении URL фиксирует, и отношение кол-ва анкоров в ссылкам к содержание в URL считает, не говоря о совсем простых, где по паттернам URL-а определяется формат страницы, например,

 

softerra #:
повторюсь, что ЧПУ считаю 100% идиотством

Что идиотского в том, что вы смотрите на ссылку searchengines.guru/ru/forum/  и понимаете, что она ведет в корневой раздел форума?

annaov #:
спасибо большое.

Пожалуйста 😉


annaov #:

не могу понять одну загадку с фильтрацией исключений (exclude)

почему исключение вида - https://*.aaa.xxx.com/* позволяет грузиться страницам вида https://vrevervvreve.aaa.xxx.com/ то есть, разделам четвертого уровня. где ошибка? может быть, приоритетность проверки правила где то нарушена.. стоят галки проверять все субдомены и все от стартовой папки. но мне же такое и надо, кроме исключенных путей.

Не видя всех ваших настроек сложно сказать, но попробуйте обратиться к настройкам Crawl All Subdomain и уберите там галку, если она там стоит (по умолчанию обычно стоит) - пробуйте работать без краулинга по поддоменам.

softerra #:
Люди не читают ЧПУ

Ну это смотря какие люди.

Eсли ты как seo-специалист/вебмастер точечно работаешь со страницами, используешь имена URL-ов в обработке рабочих данных, то наглядность таки важна.

annaov #:
Только адреса голых URL для последующего парсинга
annaov #:
когда у сайта нет открытого sitemap
annaov #:
а структура каталога полностью не раскрывается, страницы выдаются либо от поисковых запросов, либо от тегов, или обрезанной пагинации.

Ага, понятно, вот это уже ясно сформулированная задача.

Тогда. Если нет карты сайты, то перечень рабочих URL адресов мы можете получить только в процессе краулинга (т.е. фактического обхода по сайту через внутренние ссылки).

1. В настройках отключаете переобход картинок, js/css файлов.

2. В настройках извлечения (Extraction) отключаете всё, кроме title заголовков.

3. В настройках robots ставите ignore robots.txt (игнорирование инструкций robots)

4. В настройках скорости лучше поставить Max Threads - 3

5. В настройках User-Agent - GoogleBot

И вперед. 

По результату анализируете URL-ы.

annaov :
Мне нужны только адреса страниц сайта

Нужно только адреса страница сайта - что? Собрать/получить или по готовому списку проанализировать?

Сформулируйте более полно свою рабочую задачу.

Если получить информацию по отдельным адресам, то переключаетесь в режим анализа списка ссылок,

выбираете ручной ввод,

вставляете в рабочее окно перечень нужным вам URL адресов,


нажимаете кнопку "Next" - начнётся процесс сбора данных по указанным вами адресам.

Если просто список URL адресов сайта нужен, то загляните в XML карту сайта, можно взять оттуда.

Sindorian :
Как поисковики узнают о поведении пользователя после захода на страницу, чтобы учесть "поведенческие факторы"?

По инструментам отслеживания (выше вам об этом уже рассказали).


Sindorian :
После клика в поиске поисковик никак не может знать что делает посетитель на посещенной странице, кроме как с помощью установленных вебмастером кодов с метриками, типа Яндекс.Метрика и тд.

Если Метрики нет, то данных фактически будет собираться меньше. Но это как раз не в вашу пользу.


Sindorian :
Значит ли это что установка на сайт кодов со всякими я.метриками и гугл аналитиксами критически необходима для SEO?

Для профессиональной и точечной работы - да, эти инструменты необходимы, но в частном порядке вы можете обходится и без них (здесь уровень требований и задачи у всех разные).


Sindorian :
Мне, например, они не нужны, у меня самописная статистика посещений, а установка этих кодов влияет на скорость загрузки страницы, например, что еще один важный фактор для SEO.

Скорость загрузки в любом случае надо оптимизировать, а по части установки кодов - их можно использовать с отложенной загрузкой. 

alexverem :
Некоторые открытые сервисы показывают часть запрсоов, напр pr-cy

Да, в демонстрационном режиме - часть данных.


alexverem :
Можно ли получить более развернутую картину?

Да, заплатив за полный доступ.


alexverem :
Желательно бесплатные, но можно и платные сервисы )

Кейсо как основной вам уже посоветовали, в бесплатном режиме можно использовать Букварис.

Также Мегаиндекс и Xtool


alexverem #:
У мегаиндекс подешевле тарифы (месячный)

Да, Мегаиндекс заметно дешевле.


alexverem #:
как у них с данными по ключевым запросам конкурентов?

Заметно меньше, но для стартовой работы вполне будет достаточно.

За полноценный сервис конечно надо платить.

ArtRS :
Что посоветйте, на что можно переключиться и чем быстрее, тем лучше?

Сложный вопрос. Переключиться с чем? С деньгами/без денег? Как собственник или как специалист с какими-то навыки онлайн торговли? 

Организация нового бизнеса - это одна история, работа по найму - другая. Тут у вас надо спрашивать, кем вы себя видите.

Dram #:
~<a(.*)(id="(.*)")(.*)</a>~gmU

Так здесь любое значение для id=" "

ТС нужно конкретное значение -  download.  

Всего: 12575