Здесь урлы нормальные. /forum/1085544/page2
А если бы было такое в конце:
/naskolko-realno-vazhny-urly-chpu-dlya-ranzhirovaniya-sajta
То это было бы плохо.
ЧПУ - это технология, конкретные названия страниц и использование их в URL уже определяет вебмастер.
Но даже и с длинным названием (когда оно вменяемое) ничего страшного.
p.s. Но если не доверять общим категоричным репликам на форуме, а открыть слитые факторы Яндекс, то вы найдете десятки наименований факторов, связанных с URL значениям.
Как минимум Яндекс и кол-во слэше считает, и BM25 по содержанию рассчитывает, и триграммы в значении URL фиксирует, и отношение кол-ва анкоров в ссылкам к содержание в URL считает, не говоря о совсем простых, где по паттернам URL-а определяется формат страницы, например,
Что идиотского в том, что вы смотрите на ссылку searchengines.guru/ru/forum/ и понимаете, что она ведет в корневой раздел форума?
Пожалуйста 😉
не могу понять одну загадку с фильтрацией исключений (exclude)
Не видя всех ваших настроек сложно сказать, но попробуйте обратиться к настройкам Crawl All Subdomain и уберите там галку, если она там стоит (по умолчанию обычно стоит) - пробуйте работать без краулинга по поддоменам.
Ну это смотря какие люди.
Eсли ты как seo-специалист/вебмастер точечно работаешь со страницами, используешь имена URL-ов в обработке рабочих данных, то наглядность таки важна.
Ага, понятно, вот это уже ясно сформулированная задача.
Тогда. Если нет карты сайты, то перечень рабочих URL адресов мы можете получить только в процессе краулинга (т.е. фактического обхода по сайту через внутренние ссылки).
1. В настройках отключаете переобход картинок, js/css файлов.
2. В настройках извлечения (Extraction) отключаете всё, кроме title заголовков.
3. В настройках robots ставите ignore robots.txt (игнорирование инструкций robots)
4. В настройках скорости лучше поставить Max Threads - 3
5. В настройках User-Agent - GoogleBot
И вперед.
По результату анализируете URL-ы.
Нужно только адреса страница сайта - что? Собрать/получить или по готовому списку проанализировать?
Сформулируйте более полно свою рабочую задачу.
Если получить информацию по отдельным адресам, то переключаетесь в режим анализа списка ссылок,
выбираете ручной ввод,
вставляете в рабочее окно перечень нужным вам URL адресов,
нажимаете кнопку "Next" - начнётся процесс сбора данных по указанным вами адресам.
Если просто список URL адресов сайта нужен, то загляните в XML карту сайта, можно взять оттуда.
По инструментам отслеживания (выше вам об этом уже рассказали).
Если Метрики нет, то данных фактически будет собираться меньше. Но это как раз не в вашу пользу.
Для профессиональной и точечной работы - да, эти инструменты необходимы, но в частном порядке вы можете обходится и без них (здесь уровень требований и задачи у всех разные).
Скорость загрузки в любом случае надо оптимизировать, а по части установки кодов - их можно использовать с отложенной загрузкой.
Да, в демонстрационном режиме - часть данных.
Да, заплатив за полный доступ.
Кейсо как основной вам уже посоветовали, в бесплатном режиме можно использовать Букварис.
Также Мегаиндекс и Xtool.
Да, Мегаиндекс заметно дешевле.
Заметно меньше, но для стартовой работы вполне будет достаточно.
За полноценный сервис конечно надо платить.
Сложный вопрос. Переключиться с чем? С деньгами/без денег? Как собственник или как специалист с какими-то навыки онлайн торговли?
Организация нового бизнеса - это одна история, работа по найму - другая. Тут у вас надо спрашивать, кем вы себя видите.
Так здесь любое значение для id=" "
ТС нужно конкретное значение - download.