В любой информационной среде важна структура данных, в том числе и в сайтах независимо от его направления и назначения.
Вы можете сделать плоскую структуру данных одного уровня, но это будет ваш выбор.
Когда проект большой, структура обязательна, потому что вам будет проще управлять разделами сайта и формировать для них отдельные задачи.
И не может быть точных цифр, чтобы определить какое-то общее правило для всех, всё индивидуально.
Зависит от целого ряда факторов: от возраста документов, от объёма сайта, от уровня индексации, от поисковой очереди, от корректности и правильности структуры... и перечислять можно очень долго.
Никто никогда не даст универсального ответа для всех случаев, а если даст, то будет субъективен.
В моей практике были самые разные случае от нескольких недель для небольших сайтов, до более, чем полугода с обилием косяков и орг. накладок - для сайтов десятитысячников.
Тоже всё индивидуально.
Сколько трафикообразующих страниц на момент переклейки будут в процессе обработки и восстановления позиций, такую потерю и почувствуете.
Нет, очень сильный разброс данных.
Начиная с одностраничных лендингов, заканчивая сотнитысячниками.
Такое уведомление всплывает, если используется принудительный редирект для 404 страниц, т.е. вместо 404 страниц постоянно происходит редирект. Яндекс не может получить 404 статус и выводит это уведомление.
Вес не зависит ни от анкоров, ни от положения.
Вес зависит от входящего веса донорской страницы и от кол-во внешних ссылок с неё, поэтому с точки зрения лучшего веса, желательно, чтобы внешняя ссылка была одна - ваша.
Т.е. разрабатываете софт для прикладных задач?
Если без "серых", при этом ещё быстро, натурально и много, то PR реклама и крауд-маркетинг.
Схема обычно такая. Нанимаете PR маркетолога (иначе кто будет организовывать и курировать этот процесс?), выделяете ему бюджет в несколько сотен тыс. рублей (для начала) и ставите ему задачу. Он подряжает исполнителей, покупает рекламу, оплачивает услуги и контролирует в том числе результат по привлечению ссылочной массы.
Дорого? Погружаетесь в серые методы или самостоятельно - долго, последовательно, но можно по белому.
LEOnidUKG абсолютно прав.
Это понятно, но далеко не всякому бизнесу подходит такая схема.
А продвижение информационника и лендинги - это вообще две параллельные реальности :)
Это лишь инструмент для парсинга (к слову - отличный, сам им активно пользуюсь), но для полноценной запросной аналитики и для разбора запросов по составу слов там к сожалению нет функциональных возможностей.
Специально зашёл, посмотрел, увидел ряд критических замечаний о работе тех. поддержки.
Подобную критику слышу уже в течение нескольких лет, неоднократно слышал претензии в отношении смены ключа при обновлении железа. Cогласен, да это не есть хорошо, не одобряю такую работу с клиентами, но я не слышал, чтобы проект cхлопывался, по почте тех. поддержка вроде бы отвечала.
Покупал программу полтора года назад для обновлённого компа, получение ключа при покупке прошло без проблем.
Вопрос замены ключа - да, скорее всего растянется на неопределённое время.
Но, повторюсь, альтернатив, по-моему, нет.
p.s. Сейчас для теста запустил программу - работает.
p.s.p.s. Возможно человек, отвечающий за тех. поддержку уехал в отпуск и заменить не на кого.
Пробуйте, потом если захотите, поделитесь результатами.
Однако думаю, что здесь нужны не ссылочки, а стимуляция ПФ для данной страницы.
Да, что вы такое говорите? Почему это загибается?
Здесь надо понимать, что задачи связанные с парсингом данных со сторонних источников по многом зависят от политики использования сторонних источников, но что касается внутренней аналитики программы, то здесь довольно мощные и гибкие возможности. Я лично не вижу необходимости менять инструментарий.
Полные аналоги Key Collector в десктопной версии - даже затрудняюсь назвать. А они есть? По-моему, нет. KeyAssort не аналог, остальные насколько я помню онлайн решения и тоже в полной объеме функционала для KC не дотягивают.