Какой вопрос, такие ответы и получаете. Вообще, если по существу. Берете список запросов, по каждому из них мониторите конкурентов. Оставляете максимально близких по параметрам к вашему сайту, по возрасту и т.п. Естественно, отсеиваете сразу агрегаторы или федеральные крупные сайты. Ну например, если у вас сайт по продаже сотовых телефонов, то смысла мониторить на предмет ссылочного евросеть или мегафон бессмысленно, т.к. вам их не переплюнуть. В общем просеиваете конкурентов. По оставшимся делаете выгрузку ссылочных профилей по ахрефс. Смотрите соотношение анкоров и безанкоров, скорость наращивания ссылочного и т.п. Потом прогоняете доноров по фасттрасту. Смотрите качество площадок, с которых закупались конкуренты. Собрав всю эту инфу, разрабатываете стратегию наращивания ссылочной массы. Как-то так.
Фразы "Семантического ядра для него не составлялось. Просто не затачивался под поисковые запросы" и "То есть трафик можно ожидать безграничный." несовместимы ) С чего это он должен быть безгарничным, да еще и в такой тематике? Адалт сайты всегда продвигались сложно и требовали больших усилий. А сегодня их продвижение еще сложней. В выдаче как правило висят древние крупные порталы.
Ну если я правильно понял, то у вас на страницах прописан rel="cannonical" на самих себя. Зачем такие телодвижения? Вы эти каноникалы можете вообще удалить. Атрибут rel="cannonical" пишется для того, чтобы избегать дублей контента. Например, У вас есть общая страница каталога, в которой находятся все карточки товаров. И есть подразделы каталога с дублированием этих карточек товаров на них. Чтобы не было дублей карточек, вы, например, в карточках товаров в общем каталоге прописываете rel="cannonical" на соответствующие карточки товаров в подразделах каталога. В результате Яндекс индексирует карточки товаров, находящиеся в подразделах каталога, а не карточки, находящиеся в общем каталоге. Если непонятно объяснил - читайте https://yandex.ru/support/webmaster/controlling-robot/html.html#canonical В вашем случае каноникалы можно удалить. Я имею ввиду те, которые вы привели в качестве примера.
Серьезно? ))) Вы собираетесь делать блог по раскрутке сайтов и задаете вопрос, как правильно спроектировать его структуру? ) Представляю, как много полезной информации для себя найдут люди на вашем блоге )
С каких это пор? Вордстат позволяет узнать, сколько людей в месяц ищут ту или иную фразу, при этом составление прогноза строится на основании данных за последние 30 дней до даты обновления статистики. Данные считаются системой только для страницы результатов поиска Яндекса. И этот момент надо учитывать. Например, если вы сейчас попробуете забить запрос типа "елочные игрушки" - у него частотность будет маленькая. а вот ближе к новому году - огромная.
Не знаю за Гугл, а за Яндекс говорят, что такие "глобальные апдейты" происходят из-за того, что уборщица кнопку шваброй задевает нечаянно. Вот как заденет, так они и происходят )))
Маловероятно, что это поисковые роботы так долбят. Смотрите IP. Возможно кто-то ваш сайт парсит какими-то сервисами или программами. Если такие частые обращения 1-2 IP, то просто заблокируйте их. Если все же никакой конкретики найти не удастся, то просто пропишите Crawl-delay в роботсе.
После составления семантического ядра нисколько страниц не должно проиндексироваться, т.к. само по себе семантическое ядро на индексацию сайта никак не влияет.
Если честно, то что касается тайтлов, то там проверять нечего ) Просто в каждой категории пишите тайтл вручную, согласно своему семантическому ядру. Что касается карточек товаров, то в каждой категории прописывается шаблон, по которому тайтлы формируются автоматически. Проверить потом останется только выборочно несколько карточек товаров в каждой категории, чтобы проверить правильно ли работает генерация тайтлов.
Ну это касается тайтлов. Опять же повторю: "Я бы советовал делать так - все что можно посмотреть руками - лучше и надежней посмотреть руками. Что нельзя посмотреть вручную - смотреть через качественные сервисы." Если у вас проект на 100 000 страниц и вам нужно проверить наличие битых ссылок, конечно же пользуйтесь сервисом. Но опять же, узкопрофильным, который проверяет битые ссылки, а не все подряд - битые ссылки, внешнее ссылочное, тошнотность текстов, сравнение видимости с конкурентами, анализ сниппетов в выдаче и т.д. У такого рода сервисов (особенно бесплатных) огромная погрешность, т.к. разработчики просто не успевают их актуализировать и следить за стабильностью их работы.
Доверять никаким сервисам не стоит, только ручная проверка. Особенно это касается сервисов, которые якобы предоставляют комплексную информацию по десяткам параметров. Такие сервисы показывают среднюю температуру по больнице, которая по-сути никакой полезной информации не несет. На сегодняшний день не могу назвать ни одного качественного сервиса комплекной проверки сайта, который давал бы хоть сколько-то достоверные данные. Я имею ввиду комплекс данных. По крохам, с десятка сервисов, конечно можно кое-что полезное узнать. Например, ahrefs довольно точные данные предоставляет по ссылочному окружению. В симуларвеб можно посмотреть довольно достоверную информацию по источникам трафика конкурентов и т.д. Я бы советовал делать так - все что можно посмотреть руками - лучше и надежней посмотреть руками. Что нельзя посмотреть вручную - смотреть через качественные сервисы. Главное отличие качественных сервисов - в 90% они платные и стоят достаточно дорого.