Возраст индексации сайта. Много вопросов: индексации морды ? а со внутренними страницами что ? а при смене контента ? И что тут учитывать?... Может и учитывают в формуле ранжирования, но вероятно незначительно.
По возрасту ссылок более понятно как учитывать. Кривая: все ссылки на сайт в зависимости от календарного времени. Площадь под кривой - это интеграл. Будет только увеличиваться. Эта площадь как-то показывает цитируемость сайта (сколько ссылок Х сколько времени) - это понятно легко можно учесть в формуле ранжирования.
Траффик на дропе не восстановится сам по себе. Источники траффика - их много и это отдельный разговор - не определяются именем домена и оставшимися после дропа беками.
Что касается части траффика определяемого SEO - траффик с поисковиков - то надо полностью восстановить контент и места в выдаче. Даже если можно восстановить контент всего сайта, то места в выдаче точно просядут по ряду причин: часть беков отвалилась, изменился алгоритм ПС, сайт исчез из индекса и пр. и пр.
Это даст максимум пр3. Но гугл бывает что занижает пр против ожидаемого, так что м.быть и пр2 и пр1 и пр0.
Для пр4 маловато будет, там что-то еще раньше стояло ...
Домен - это 10 процентов. От контента многое зависит. И от новых внешних ссылок, которые ПС только-только обнаружила. Новые ссылки - это новости. Новости хорошо индексируются.
Теория "перетекания" ? из пустого в порожнее :) Так и не ответили, откуда тиц 425 на сайте. Похоже, что не Вы его поднимали.
Скорее не естественный, а долгоживущий.
Для сайта с пузомерками ТИЦ 425 ПР5 бесплатные прогоны- как слону дробинка. Готовьте деньги на покупку ссылок или смиритесь с уходом из топа.
Существующие пузомерки ТИЦ 425 ПР5 кто получил для сайта: Вы или другие ?
Платон пишет: Развивайте САЙТ.
и никогда не пишет: развивайте СТРАНИЦУ
Несоизмеримые вещи по финансовой мощи: ВАЗ и GM. яндекс и google
Гугл работает со страницами. Каждая страница как сайт. Поэтому и с уникальностью там проще.
А у Яндекса денег мало, поэтому компов недостаточно и на зарплату берут невостребованных другими программеров. и ранжируют не страницы а сайты - прикрываясь дымовой завесой что просекли новый алгоритм. Сайтов меньше чем страниц, нужно меньше ресурсов для обсчета, но уникальность отдельной страницы очень сложно разглядеть при таком подходе.