Валишь всё в одну кучу и индексирование, и следование по ссылкам, речь не об этом.
Еще раз - сайт был полностью запрещен, о чём Вебмастер вывел соответствующее уведомление. Это был сброс индексации глобальный. Но при этом некоторое время в индекс ещё залетали страницы. Почему залетали? Потому что инструкция Вебмастера - это одно, а порядок обработки накопленных данных Яндексом - другое.
Там могут быть данные полугодовой давности и поэтому сколько на них не смотри, свежее от этого они не станут. Однако замечание верное, потому что первичен и более приоритетен сигнал который есть у поисковика, поэтому на текущий Disallow или noindex, nofollow ему пофиг, до момента принудительного переобхода.
И дело тут в порядке следований инструкций, поэтому у TC и тянется всё это месяцами, а указанные noindex по факту является не более, чем рекомендацией в общей череде обработки данных.
Итого: принудительный переобход смещает фокус поисковика для обработки данных, именно поэтому данную процедуру нужно выполнять вручную, потому как ноуиндексы - это не более, чем доп. атрибут страницы, потому как фактическое состояние - это одно, а обработка старых данных, которая исполняется после ноуиндекса - другое.
Я тоже так считал, но вот недавний пример.
В 20-х числах сайту полностью была запрещена индексация на уровне robots и в мета постранично, а межу тем 31-го числа,
и я этому тоже очень сильно удивился. Поэтому теория - теорией, а практика вносит свои нюансы и коррективы.
Здесь - да.
Лучше
Потому как полезная информация/сигналы/трафик могут оставаться в сети.
Это инструкция, которая определённое время может игнорироваться. Недавний эксперимент - полный спрос индексации Disallow: / - три недели сайт видел в индексе, более того, прибавлял в индексе те страницы, которые были дополнительно указаны noindex, nofollow.
И только после принудительного переобхода страницы начали исключаться из индекса.
Я - делаю, и многие мои коллеги делают. Определяют порядок приоритетности и делают.
Кол-во - это не причина не делать. Кол-во - это условиe для определения порядка обработки.
Стоит это делать вручную с самостоятельно выстроенной структурой. Ни один сервис не учитывает специфику и нюансы бизнеса, которые необходимо изучать на уровне потребительских интентов.
Когда вы доверяете сервису, то вы берете на себя все возможные ошибки и неудачи в структурной сегментации.
Потому что у Яндекса свои приоритеты в индексации и инструкции Disallow: /адрес страницы, а также noindex, nofollow всего лишь рекомендация.
Для оптимизации индексации нужно:
а) соблюдать корректные данные в <lastmod> в xml карте сайте
б) вручную заниматься вопросами переиндексации сайта (добавлять страницы на переобход поисковым роботом)
Именно так, потому что приоритет добавления новых страниц выше, чем переобход старых менее приоритетных.
Пока не обновятся данные, уведомление так и будет висеть.
Они могут хоть пол года быть закрыты и так до конца и не обновлены. Как я написал выше, нужно самостоятельно стимулировать этот процесс.
Не знаю насчёт конкретики региональных порталов (мне в общем-то это и не интересно), но головной работает 100%.
Люди в этом бизнесе c 2005-го года, а с 2009-го они официальное региональное СМИ https://vorle.ru/redaktciia/ cо своим редакторским, менеджерским и IT штатом.
Всё там есть, вы похоже даже не смотрели. Там полноценный городской портал.
Сервис чего?
Вы хотите сделать агрегатор доставки еды и сотрудничать с ресторанами? Зачем вам тогда городского портал?
Ясно. Вы даже не представляете на какой объём работы замахиваетесь и думаете, что осилите всё органическим трафиком.
Уверен, в лучшем случае вы получите немного опыта, когда всё забуксует на этапе первых шагов в реализации.
О смелых планах и сайтах для людей можно свободно и инициативно рассказывать на форумах, но даже если вы худо-бедно осилите функционал, то поймете, что даже несколько сот человек в день с общей семантики городского портала - это ничего для того, чтобы монетизировать его в реалиях регионального бизнеса.
Это как раз тот случай, когда без всяких отзывов человек сходу демонстрирует владение копирайтингом.
TC не знаю, услуги не заказывал и не собираюсь, но тоже обратил внимание на заголовок и открыл тему, - открыл и убедился, что это не случайность.
Автору - успехов, уверен, в вас есть потенциал.
Объясняю ситуацию.
Имеем сайт-сервис для города, где указана необходимая информация о городе. Справочник, объявления, форум, афиша, новости и т.д.
Ситуация понятна.
Вопрос.
1. Ссылочная масса и ip для поисковика будут подозрительными?
Сама по себе? - нет.
9 лет назад работал в региональном СМИ, где был целый набор информационно-справочных порталов с единым дизайном и все это хранилось на одном сервере. Какое-то время занимался продвижения отдельных разделов этих сайтов.
Именно так и было. Новостями и контентом занимался редакторский отдел.
Нормально. Без подозрений.
Да полно таких. Спустя 9 лет на прошлой работе остался только один сайт (как минимум других уже не вижу), но и тогда, и сейчас был конкурент, который имел аналогичные сайты:
https://vorle.ru/
http://vtule.ru/
https://vbryanske.com/
http://vvoronezhe.ru/
Смотрите, изучайте..
Советов особо нет, кроме того, что если на базе порталов не будут развиваться свои СМИ с последующим рекламным отделом и привлечение рекламодателей (что само по себе очень непросто), то все эти порталы по сути будут игрушками пока не надоест, а рано или поздно всё равно надоест, потому что когда начнут масштабироваться информационные задачи по ним, то мы поймете, что годами будете вынуждены вкладываться в информационные активы, чтобы как минимум частично их монетизировать.
Заработать какие-то внятные деньги без оффлайн рекламодателей вы не сможете, чаще всего такие сайты после стадии увядшего азарата "замутить порталы и собрать много трафика" используются как ссылочные саттелиты или продаются. Вы далеко не первый желающий попробовать свои силы в этой теме.
Мусора тоже хватает, но задача SEO оптимизатора как раз в том, чтобы выполнить рабочую сортировку, определить актуальные рабочие данные и сформировать приоритеты по сделанным выборкам.