Посетителей. Уников. Только я не знаю как они колдовали над Битриксом, чтобы держать на нём такие нагрузки. Подозреваю, что там акселератор перед битриксом стоял.
1. Почитайте английский вариант (в русском грубейшие ошибки и просто враньё). Посетители с банеров были в 4-5 раз худшего качества, чем с контекста. Что, контекст создаёт прибавочную стоимость 250-500%?
2. Я считал увеличение ROI. Причём тут цена за переход?
3. Я решал случай с узкой задачей - когда есть сильнотематический сайт и есть банеры. При этом стоимость банеров равна 1 бакс за 1000. Увеличьте в 10 раз стоимость показа банера (реальная ситуация для узкотаргетированных аудиторий) и этот финт станет экономически не выгодным.
4. Откуда Вы знаете, что оно есть? Я повторяю: нет никаких исследований, которые бы говорили о брендинговом эффекте от банеров/контекстки. Если есть - приведите ссылку. Для газет, журналов и телика он есть. Мизерный, но есть. Лучший эффект - от опыта потребления. Кстати, даже для журналов не каждое объявление добавляет узнаваемость компании. Например, если размер объявления менее 1/4 А4, то эффект не виден. Продажи есть с объявления (и могут быть велики), а имиджевого эффекта нет.
Поддерживает. Как на уровне фронтенда (веб-серверов), так и бекенда (базы). Но для кластеризации бекенда там нужен Оракл. Подробнее - http://www.1c-bitrix.ru/performance/how_to_scale.php
Имхо, штука хорошая, если его правильно настроить на оптимальную производительность. Например, Рыжиков утверждал, что они смогли запихнуть на один MySQL-сервер всю базу и статистику для Эльдорадо ( www.eldorado.ru ) и держать 25 тыс. посетителей в час в реальных условиях (сливали посетителей с рекламы на Mail.ru ). И это при синхронизации с SAP/R3, где ведётся учёт складских ресурсов.
Именно об этом. Эти 22% при переводе в нормальные попугаи дают совершенно мизерный отклик. Дело в то, что эти 22% получаются только при полном пересечении аудитории медийной рекламы и контекстной рекламы в поисковиках. Ниже я сделал выкладки, чтобы показать что такое эти 22%.
Есть, если потенциальные покупатели перед покупкой кучкуются на каком-то определённом наборе сайтов. Например, если картриджи рекламируются на сайте с рефератами. Реферат штука большая, картридж кончается на каждом пятом реферате.
Пусть за 1000 показов банера платится 1 бакс, каждому посетителю показываем рекламу лишь раз. Каждый 25-й посетитель сайта реферата в течение суток ищет способ покупки картриджа через поисковик. CTR на рекламе 5%, стоимость клика 0,5 бакса, конверсия посетитель-покупатель 5%. Тогда стоимость покупателя без банера равна 10 баксам. С банером: из 1000 видевших банер к нам попадают 2 человека. То есть дополнительная стоимость посетителя - 0,5 бакса. При этом конвертация посетитель-покупатель у них выше на 20%, то есть стоимость покупателя будет 8,5 доллара. Сэкономили 1,5 доллара.
Вот такой практический эффект может быть от указанного исследования. Заметьте, нет брендингового эффекта - есть увеличение узнаваемости. Использовать можно только в ситуации, когда аудитория сайта сильно пересекается с аудиторией тех, кто ищет в поисковике товар.
Нужен отдельный сервер. Но это стоит того из-за мощнейшей статистики Битрикса и возможности подстраивать портал под разные источники посетителей. Плюс у Битрикса очень хорошая команда.
То, что говорите Вы - теория. Реальные медиаизмерения не выявили роста известности ни от банерной рекламы, ни от контекстной. Исключение - точнейшие измерения Atlas на сотнях тысяч покупок, где удалось померять очень маленький эффект изменения конверсии для тех, кто ранее видел банер.
P.S. Давайте отделять наши гипотезы от прямых измерений.
Сразу видно умных рекламодателей.
С шальными абузами бороться можно и на уровне хостера, когда проект у тебя белый, список адресатов длинный и есть ссылка в письме. Хостеру же очевидно, что случайность. Тем более при решении проблем за мой счёт. Вопрос в том, что делать с подставами?
Зачем 10-20 долларов? Доларов 200-300 или 5-10 кратная прибыль с сервера. :D Сервер один, а прибыль как с 10 :D
Количество страниц в индексе есть у них на главной странице. информация о количестве серверов была в публичном доступе и может уже устарела. Причём подлном количестве серверов: с учётом краулеров, народ.ру, поисковых серверов и пр. барахла.
Давайте считать реальную скорость обработки страниц. Обработка состоит из:
1. Выдирания всех ссылок с анкорами.
2. Выбрасывания всех тегов.
3. Обработки оставшегося текста стемкой.
4. Перевода стем-текста в последовательность чисел.
5. Подсчёт плотности слов.
6. Укладывание данных в базу.
7. Добавление данных о странице в индекс.
Для определённости, слова будут обрабатываться не морфологией, а стемкой. Это около 100 тыс. слов в секунду на моём ноуте (Селерон М). На хорошей странице в вебе обычно 2-3К слов. Это примерно 15К чистого текста или 25К html.
1. Выдирание всех ссылок с анкорами.
100 ссылок ~ 10^(-4) сек.
2. Выбрасывание всех тегов.
Один проход, так как надо выбросить скрипты и комментарии ~ 10^(-4) сек.
Один проход, так как теги ограничены символами '<' и '>' ~ 10^(-4) сек.
3. Обработка оставшегося текста стемкой.
3К слов / 100К слов/сек ~ 1/30 сек.
4. Перевод стем-текста в последовательность чисел.
Используем BerkeleyDB ~ 100К чтений слов в сек (база помещается в память) ~ 1/30 сек.
Используем однозначный хешь ~ 10^(-4) сек
Используем BerkeleyDB ~ 60 Мб/сек ~ 3*10^(-4) сек
Однопроходный алгоритм, зависит от размера индекса и определяется скоростью работы с жёстким диском ~ 60 Мб/сек. Подсчитать на пальцах трудно, так как здесь всё зависит от способа хранения данных, количества памяти и режима пакетной обработки.
Итого, без пункта 7, скорость обработки страницы ~ 1/15 сек - вот минимальная скорость обработки типичных страниц на моём бедном селероне. Это раз в 50 быстрее, чем у Ваших программистов.