Эксперименты. Нетрудно проверить, что и порог ненулевой, и ВИЦ учитывается далеко не прямопропорционально.
С уважением,
Александр Садовский.
Занимаются, еще как. :) Я видел на одном из западных форумов список "китов", которые используют клоакинг -- имена вроде MSN или Google там встречались сплошь и рядом. Другое дело, что такие сайты обычно используют клоакинг не с целью обмануть поисковики, а с целью сделать удобней языковую поддержку или улучшить защиту сайта. Но с точки зрения policy поисковиков такие действия все равно расцениваются как клоакинг.
1. Числа Яндекса , Апорта и Пунто есть в соответствующем разделе СпайЛога .
2. Статистика Рамблера есть в его Top100 и на Mail.ru-Рейтинг . Апорт также обсчитывается в рамблеровском Top100: полный сайт и его облегченная версия .
3. Доступна также статистика Яндекса от самого Яндекса .
Для ОСП можно послать пресс-релиз и через форму . http://www.km.ru/pr_new/pr-edit.asp
Есть также масса специализированных сайтов, как правило, по тематике или региону. Например:
Украинские новости: dl@ukrnews.kiev.ua
Для фирм, работающих на рынке товаров и услуг для бизнеса: info@offis.ru
Украинские интернет-магазины: press@eplus.com.ua
И т.д.
Яндекс принимает во внимание ВИЦ страницы со ссылкой, и если он мал, текст не учитывается.
Поисковики, если хотят проверить на клоакинг страницу, могут заходить туда роботом с IP отличным, от стандартной сетки, равно как и ничем не примечательным User-Agent.
Теоретически можно построить сложную схему противодействия. Например, вылавливать IP роботов, которые обращаются к robots.txt, и выдавать им страницу с модифицированными ссылками. При обращении по такой ссылке проверять поле реферера и наличие cookies, JavaScript и прочих прибамбасов (у роботов их нет). Если это человек -- перекидывать на нормальную страницу, нет -- заносить IP в сакральный список.
Но и такой метод может давать сбои, поэтому, если речь идет о большом и серьезном сайте, лучше не рисковать, а подстраховаться свежей базой IP.
Зенон считается относительно дорогим. Я привел его только для примера, а найти неплохой хостинг с нормальной обработкой логов можно в 2-3 раза дешевле.
Это как раз не удивительно, нормальный процесс -- кто-то запомнил адрес сайта, но купил не сразу, кто-то ждет зарплаты и т.д. Непонятно, почему падает число клиентов сразу после рекламы и держится на нуле до истечения какого-то срока.
Вот еще одна статья того же автора: http://www.pandia.com/features/marketing.html
Правильно, сайтов тьма, но уникальных и свежих материалов всегда мало. В этом году я запустил два сайта с нуля. Не сделав никаких усилий по раскрутке, кроме написания уникальных материалов, я получил в одном случае 30 человек в день за три месяца, а в другом -- 10 человек за месяц. Если бы я раскручивал их, легко было достичь 100-200 человек в день через месяц-два, просто у меня не было на это времени -- сайты для души, а не заработка.
В случае мебельного корпоративного сайта тоже можно создать уникальные страницы, основываясь лишь на информации в Сети. Это лишь кажется, что все уже есть. Тщательно отобранная и переработанная информация стоит гораздо больше, чем в сыром виде, разбросанная по сотням страниц. Какой магазин ближайший к моей станции метро? Где есть доставка? Какая фирма продает элитную мебель, а где можно купить дешево? Как самому собрать купленную мебель? Где можно заказать доставку? Кто выпускает мебель для малогабаритных квартир? И т.д.
Например, запрос в Яндекс мебель малогабаритная квартира не возвращает ни одной подходящей страницы, но по отрывкам информации вырисовывается, что эта мебель может:
Да, написать такой обзор с иллюстрациями за десять минут нельзя, потребуется как минимум несколько часов (хорошая статья может занять неделю и больше). Но, в то же время, это будет тот самый уникальный материал, об отсутствии которого часто слышны сетования. Проблем нет, было бы желание работать.