Panika, будем разбираться.
Бар очевидно установился. Убедиться в этом можно по наличию/отсутствию каталога Developing.ru в Program files с seobar.dll в нем.
Инструкции по визуализации тут: http://www.developing.ru/bar/instructions.html
Да, а список наиболее часто посещаемых сайтов я тебе и так предоставлю. Вот он:
www.yandex.ru
www.rambler.ru
https://searchengines.guru/
www.google.ru (com)
www.aport.ru :D
euhenio, ты невнимателен. Функции описаны и на странице и тут.
Пока что это просто расширенная версия папки Favorites:
Это не SpyWare, да и в планах не было.
Да, добавлю то, что забыл упомянуть andre: это бэта версия, поэтому могут быть разные глюки и баги. О них убедительная просьба оставлять сообщения.
Kost, засада заключается в том, что в договоре не прописывается качество предоставляемого канала. Т.е. пока ты сёрфишь по сети, то действительно канал 256К. Как только ты начинаешь выкачивать что-то большое и нужное, как в дело вступает т.н. шейпер - пропускная способность канала принудительно снижается в разы. Причём если даже в договоре качество канала и пропишут, у них всегда есть отмазка, что это проблемы вышестоящих провайдеров или на крайняк хостера от которого ты пытаешься скачать дамп интернета. Т.е. 70Гб в месяц за 30$ - несбыточная мечта. Это с одной стороны. А с другой стороны, дамп интернета ты выкачаешь один раз и пару-тройку раз апдейты к нему, после чего успокоишься. А среднестатестический пользователь потребляет меньше 1Гб в месяц. Т.е. в реальности многие платят больше, чем при помегабайтной оплате. Но это плата за комфорт.
an2003, про БМВ хороший пример. Продавцы банеров про это постоянно забывают.
Для того, чтобы иметь представление о загрузке сервера приведу несколько цифр. Средний объём страницы по рунету 25Кб. Для раскручиваемых сайтов среднее количество ссылающихся страниц(!) мне неизвестно, но наверное вряд ли меньше 1000 страниц. А, например, у этого сайта в 18 раз больше. И это далеко не лидер по числу ссылающихся страниц. Простое перемножение показывает, что построение одного отчёта для среднепопулярного сайта потребует 25Мб траффика. А для этого сайта и все 450Мб.
Так что, надеюсь, очевидно, что попуток не будет :)
З.Ы: а вы попросите у Яндекса, пусть он подобную информацию откроет :D.
medved, года два назад уже проводился опрос на подобную тему.
Желающих платить набралось от силы человек десять. Можешь поискать в этом же разделе.
В принципе я возможно на такой сервис когда-нибудь и сподоблюсь. Причём отдельные части типа сбора BL и вытягивание текстов ссылок со страниц были реализованы давно, а вот прикрутить сборщик денег всё как-то руки не доходят :)
Впрочем если действительно появится спрос на такие отчёты, то сервис повяится довольно быстро, хотя бы и в полуручном режиме :)
В самом общем случае очень тривиально - динамический контент.
Я так думаю, если содержимое страницы будет полностью меняться при каждом новом к ней обращении, то это тоже до добра не доведёт :).
(При условии конечно, что страничка не числится в новостных ресурсах).
Ой, тяжко :)
Хорошо. Постулируем:
1) клоакинг - это плохо.
2) не всякая замена контекста на основании свойств HTTP-коннекции есть клоакинг
3) клоакинг не спам, а способ его (спама) сокрытия от посторонних глаз
4) замена контекста без спама (сиречь без попытки манипулирования поисковыми результатами) - не клоакинг
5) любая существенная или полная замена контекста без предоставления посетителю альтернативы выбора - плохо
Если согласны с постулатами переходим к теореме:
I) Клоакинг при обнаружении подлежит безжалостному бану
II) Выдача поисковику и посетителю существенно различного контента по одному и тому же URL может (и будет в 99% случаев) трактоваться поисковиками как клоакинг с вытекающим отсюда п I.
И отсюда следствие - обелять клоакинг незачем.
Опровергайте. Попунктно.