😊 вы создаете проблему из ничего.
Есть структура сайта, она у вас,
/раздел/категория/подкатегория (вида спорта)/подкатегория (вида спорт. мероприятия)/название-материала/
Всё. Это база.
Конечный материал (с названием материала), иллюстрирую
2 3 4 5 6
т.е. 6-ой уровень вложенности.
Cоздавать доп. уровни вложенности, чтобы разбивать слова - это полная чепуха и не имеет никакого смысла.
Не забывай, что на многих сайтах номер страницы дописывают к названию темы через # или - , это позволяет индексировать только название темы без приписки номера страницы.
Если в title <title>Color. - сайт.ru</title> то проиндексирует только Color.
1. Если речь о title, то "#" не используется, потому есть более точный символ - "№" (хотя и его используют довольно редко).
Когда речь о номера страниц (например, в пагинации), то так и прописывают, допустим,
Фотографии - страница 1
Фотографии - страница 2
Фотографии - страница 3
по сути это просто для наглядности, так как сейчас страницы пагинации кроме корневой стараются не индексировать.
2. "#" используется для создания якорных ссылок внутри страницы. Ccылки вида site.ru/catalog#list-1 буду индексироваться как site.ru/catalog
Что касается использования "#" в title, то зона title - это текстовая зона и там "#" просто как служебный спец. символ.
Т.е. если ты укажешь <title># а этот текст поисковик типа обрежет </title>
То, текст "а этот текст поисковик типа обрежет" поисковик не обрежет, для него всё, что находится в зоне <title>...</title> просто тестовое содержание, там для него нет управляющих символов как в зоне URL.
Ну, пожалуйста. Там где вам нужно разделить слова - используйте дефис "-", при этом Гугл как раз не рекомендует использовать в качестве разделителя нижнее подчёркивание "_".
Вспоминаем рекомендацию из справки,
Тут есть мысль, нужно только вдуматься:
Наличие избыточного количества URL может быть связано с самыми разными факторами. Некоторые из них описаны ниже.
Эта мысль относится к применению GET параметров, которые используются при добавочной фильтрации элементов.
Вот GET параметры, которые создают неполные дубли - действительно избыточный элемент, поэтому их не надо индексировать и всё. Бояться их тоже не надо.
Выше же шла речь о базовом формировании URL адреса, GET параметры вида
?Ne=значение&N=значение&ещё_один_параметр=значение - уже совсем другой вопрос.
Фактически вы не сможете обойтись без GET параметров, если у вас используется каскадная фильтрация рабочих данных.
Какие ключевики начнут вылетать и какого ещё профессионала?
Эти понятия больше относятся к контекстной рекламе. Очевидно, что это те слова и фразы, которые не будут показываться/учитываться в результатах показов/ответов.
p.s. Хотя есть уже устоявшаяся методика использовать фраз с минусам и в SE сервисах по подбору семантики.
Это бывает необходимо, чтобы сузить рабочую выборку.
Так и должно быть. Поэтому и продают.
Слеш ничего не забирает, это служебный символ, который используется для разделения слов.
Веса рассчитываются по словам.
Тут нужно понять, что в основном разговор о ботах идёт от лица вебмастеров, которые воспринимают ботов, как отказной трафик.
На самом деле всё гораздо сложней и разнообразней. Есть боты с короткой сессией, которые формируют отказные сессии, а есть боты, которые могут быть запрограммированы на длинную сессию и большинство вебмастеров воспринимают эту сессию как пользователя, иногда не понимаю, что это тожде бот.
Не совсем. Нагул профиля выполняют с целью "прогрева", т.е. собрать историю посещений с сайтом с тем самым, чтобы потом при целевом использовании этот бот уже более эффективно отрабатывал при целевом переходе.
Если этого не делать, то бот чистого листа (без истории) может не засчитаться при целевом заходе и эффективность такой накрутки резко падает.
Фактически нет этого разделения. Есть просто разные стадии использования ботов.
Ещё раз. Поведенческие боты нагуливаются на чужих сайтах и конфигурация нагула зависит от того, какой сценарий опишет его оператор. Здесь как правило всё упирается в то, на сколько сложно он описывает свой скрипт.
Подавляющая часть ботоводов просто берут списки сайтов, где установлена (либо сами парсят) и делают множественные заходы. Так как по программной части проще всего описать формальный отказной заход - они это и делают, поэтому там где они проходятся возникают отказы. А там где выполняется целевой заход, они выдерживают длинную сессию.
Есть методика, где оператор целенаправленно заходит на вышестоящие сайты и описывает сценарий посещения сайтов в отказ, для того, чтобы выбранные конкурентные сайты получили по своим метрикам отказные заходы и так называемый "возврат на выдачу".
Но чаще всего (когда накрутчик покупает готовый софт), он может вообще не описывать никакие сценарии, он просто использует готовые функции программы и как там она под капотом работает, он даже особо не думает.
Если разбираться без каких-либо претензий, то SEO по части внутренней оптимизации - это работа, связанная с более корректной организацией данных, где благодаря точности, полноте и широте представленных данных поисковые системы лучше понимают о чём страница и ранжируют её в соответствии со своей релевантностью.
Для аналогии - это всё равно, что подробно заполненная мед. карта больного, который пришёл на приём к врачу и врач, благодаря данным карты может быстрее и самое главное точнее поставить диагноз.