Ни PR ни ТИЦ не влияют на стоимость баннерной и контекстной рекламы на сайте.
На вашем месте я бы сделал следующее:
- нашел сайты конкурентов и посмотрел кто и за сколько у них рекламируется
- соотнес вашу посещаемость с посещаемостью конкурентов
и тогда уже можно делать вывод о цене рекламы у вас.
А рассчитать по формуле, учитывающей среднюю цену за тысячу показов, конечно, можно. Но может оказаться так, что никто эту цену платить не будет, поэтому обязательно нужно учитывать конкурентную среду и платежеспособность потенциальных рекламодателей.
В краткосрочной переспективе точно возникнет.
1. Яндекс.
Его бот сейчас крайне медлительно индексирует новые домены, да и старые тоже. Поэтому когда ваш новый домен попадет в выдачу - неизвестно.
2. Гугл
Гугл намного лучше относится к старым доменам, чем к новым.
Я уже не говорю о том, что станет со всеми внешними ссылками, которые стоят на ваш старый домен.
Ну ничего себе, а что, и такое бывает?
Посещаемость увеличится разве что если закупите несколько десятков миллионов показов, иначе - даже не заметите разницы.
Сейчас вообще баннеры использут больше в качестве имиджевой составляющей рекламы, так сказать, чтобы пользователь привык к марке, логотипу, названию.
На одном из моих проектов размещен крупнейший отраслевой рейтинг сайтов.
Сайты-участники устанавливают у себя на всех страницах счетчики (т.е. типичный сквозняк).
Помимо обычной графической кнопки сайты-участники могут ставить обычные ссылки с анкором "Рейтинг [таких-то] сайтов на site.com".
Так вот, если искать по запросу "рейтинг [таких-то] сайтов на site.com", то сайт site.com не то что "найден по ссылке" не находится, а даже те страницы, где установлен такой счетчик, не находятся. Ни одна.
Отсюда вывод - сквозняки не учитываются полностью.
Интересно, а возможен вариант, при котором бот получает 404, считает, что сайт недоступен, и как следствие, заходит все реже и реже?
Тогда шанс у новых страниц попасть в индекс невелик. И тогда 301 редирект просто необходим.
Sape это только один из методов установки неестественных ссылок. Зафильтровать только его сложно, да и смысла большого нет. Так что врядли могут быть проблемы у сейповских ссылок, а у ксаповских, скажем, нет.
Если и будет разработан серьезный алгоритм отфильтровки неественных ссылок, то полетят ссылки со всех систем. Но когда он будет разработан, и возможно ли вообще его разработать, это вопрос.
Мне нет, не вижу удобства большого.
Вот если бы по полной реализовать, с морфологией, и все такое... :)
Было бы конечно удобно, но задача, видимо, не такая простая для реализации.
Т.к. надо учитывать спряжения и рода слов, стоящих перед заменяемым.
Например, фраза "Хочу купить красную машину", если "машину" заменить на "автомобиль", то получится "Хочу купить красную автомобиль" ;)
и много таких еще моментов надо учитывать...
Да, характеристики одни и те же, но на страницах с описанием есть также и цены (справа), которые все разные.
Плюс на этих сайтах страницы с описанием составляют, где-то на глаз, процентов 30 максимум от общего контента, остальное все вообще разное.