Не знаю насчёт конкретики региональных порталов (мне в общем-то это и не интересно), но головной работает 100%.
Люди в этом бизнесе c 2005-го года, а с 2009-го они официальное региональное СМИ https://vorle.ru/redaktciia/ cо своим редакторским, менеджерским и IT штатом.
Всё там есть, вы похоже даже не смотрели. Там полноценный городской портал.
Сервис чего?
Вы хотите сделать агрегатор доставки еды и сотрудничать с ресторанами? Зачем вам тогда городского портал?
Ясно. Вы даже не представляете на какой объём работы замахиваетесь и думаете, что осилите всё органическим трафиком.
Уверен, в лучшем случае вы получите немного опыта, когда всё забуксует на этапе первых шагов в реализации.
О смелых планах и сайтах для людей можно свободно и инициативно рассказывать на форумах, но даже если вы худо-бедно осилите функционал, то поймете, что даже несколько сот человек в день с общей семантики городского портала - это ничего для того, чтобы монетизировать его в реалиях регионального бизнеса.
Это как раз тот случай, когда без всяких отзывов человек сходу демонстрирует владение копирайтингом.
TC не знаю, услуги не заказывал и не собираюсь, но тоже обратил внимание на заголовок и открыл тему, - открыл и убедился, что это не случайность.
Автору - успехов, уверен, в вас есть потенциал.
Объясняю ситуацию.
Имеем сайт-сервис для города, где указана необходимая информация о городе. Справочник, объявления, форум, афиша, новости и т.д.
Ситуация понятна.
Вопрос.
1. Ссылочная масса и ip для поисковика будут подозрительными?
Сама по себе? - нет.
9 лет назад работал в региональном СМИ, где был целый набор информационно-справочных порталов с единым дизайном и все это хранилось на одном сервере. Какое-то время занимался продвижения отдельных разделов этих сайтов.
Именно так и было. Новостями и контентом занимался редакторский отдел.
Нормально. Без подозрений.
Да полно таких. Спустя 9 лет на прошлой работе остался только один сайт (как минимум других уже не вижу), но и тогда, и сейчас был конкурент, который имел аналогичные сайты:
https://vorle.ru/
http://vtule.ru/
https://vbryanske.com/
http://vvoronezhe.ru/
Смотрите, изучайте..
Советов особо нет, кроме того, что если на базе порталов не будут развиваться свои СМИ с последующим рекламным отделом и привлечение рекламодателей (что само по себе очень непросто), то все эти порталы по сути будут игрушками пока не надоест, а рано или поздно всё равно надоест, потому что когда начнут масштабироваться информационные задачи по ним, то мы поймете, что годами будете вынуждены вкладываться в информационные активы, чтобы как минимум частично их монетизировать.
Заработать какие-то внятные деньги без оффлайн рекламодателей вы не сможете, чаще всего такие сайты после стадии увядшего азарата "замутить порталы и собрать много трафика" используются как ссылочные саттелиты или продаются. Вы далеко не первый желающий попробовать свои силы в этой теме.
Мусора тоже хватает, но задача SEO оптимизатора как раз в том, чтобы выполнить рабочую сортировку, определить актуальные рабочие данные и сформировать приоритеты по сделанным выборкам.
Это те запросы, на которые нужно обратить внимание для потенциального увеличения трафика.
Рекомендуются Яндексом для работы в системе контекстной рекламы и для увеличения объёма поискового трафика.
Странно, что у вас спецсимволы передаются как данные. Спецсимволы - это элемент оформления (если я правильно понял заявленный пример).
Страницы фильтров должны формироваться через параметры, в параметры - заносить значение выбранных пользовательских данных. Не используйте в URL мусор. Должно быть примерно так,
/list?filter=одно_значение%дополнительное_значение%еще_значение
Словом, кодов элементов оформления в URL быть не должно, иначе оформление сменили - URL не совпадают, в результаты будут многочисленные дубли.
Начинать смотреть надо с правил обхода краулером сайта (они могут игнорировать некоторые данные), например, учитывать/не учитывать nofollow, noindex, а также правила robots.txt
Используйте альтернативные краулеры (и сравните данные).
Это может быть всего лишь частным случаем проверки краулера, которые также не всегда корректны.
Проверьте данные карточки, нет ли у них запрета на индексацию в мета тегах и не попадают ли они в правила Disallow в robots.txt
Если в листингах категорий есть запреты на индексацию и переобход страниц пагинации, проблемные товары выводятся только там, то ссылки из перечней пагинаций могут игнорироваться и таким образом краулер не видит рабочих ссылок на часть ваших товаров.
Ну так проверяйте состав и характер региональной конкуренции.
Я например ввожу запрос "пошив чехлов для хендай солярис" (регион не Москва) и вижу среди топовых сайтов нижегородскую Автостудию Dress4car https://dress4car.ru/contact-us. В моём регионе ранжируется региональный поддомен, где в качестве адреса указывается пункт самовывоза в моём городе.
Вот конкретный пример топовый "игрок" продвигается поддоменом.
Да, всё к тому идёт.
Не только ценник, но и ассортимент в отдельной товарной нише, а также способы доставки до клиента. Сливинский явно и конкретно неоднократно проговаривал мысль о необходимости проработки нишевой конкуренции.
Аналогично. При увеличении бот трафика отказы даже уменьшаются, а вот время прибывания на сайте довольно значимо падает.