Александр!
Подобные построения можно сделать для любого сайта. Рассмотрим forum.net.ru-
Яндекс знает 2500 страниц этого форума. На главной около 50 ссылок. Есть 13 разделов. Очень похоже на этот форум, например...
-только ВИЦ forum.net.ru =0.11, а не 30. соответственно-
1) Прибавка мне не составит даже и 0.5, а там 1.7
2) Главная страница forum.net.ru должна собирать на себя ВИЦ, не меньший 1.6, наверное, и гораздо больше, а там 0.11 .
Мне кажется, мы слишком мало знаем об особенностях ВИЦ, чтобы делать расчеты.. Если бы iseg что-нибудь добавил...
-да, конечно. Но -
1) Далеко не везде есть белый список.
2) Количество плохих сайтов может превышать количество (20) в черном списке. Тогда придется оценивать качество по 20-ке самых худших сайтов... В принципе, такие выборки тоже можно было бы сделать...
3) Черный список не влияет на более "высокие" категории, чем у твоего сайта.
Т.е., ты предлагаешь выбрасывать 20 самых плохих сайтов из каждой сети при расчете CTR? В любом случае, возможность выкинуть любого в черный список есть только у серьезных сайтов, которые в категории выше, чем "плохой".
Опять-же, иногда надо проводить массированные рекламные кампании, которые могут задействовать все сайты.
К сожалению, я не могу автоматом узнать, предоставляется ли белый список каждой сетью... В принципе, подобная статистика имеет очень ограниченное применение - т.к. нет разделения по категориям сайтов. И в 20-ке самых лучших именно тебя могут интересовать 1-2 сайта, а остальные будут эротическими, например.
Кстати, оттуда же я насобирал кучу списков сайтов по категориям (все сайты, которые в этих сетях). Возможно, что-то и удастся сделать.
-курочка по зернышку клюет:)
Все зависит от качества форума. Например, у меня сам собой получился чистый эксперимент - я зарегился в forum.net.ru (вопросы к хостерам назрели), у него ВИЦ=0.11 . А меня Яндекс нашел и дал ВИЦ=1.69.
Спасибо за мнения и замечания :) многое исправлено...
funsad
-да, наверное. Но это уже будет "ручная работа". Я еще не решил, предоставлять эту информацию бесплатно или нет...
-это верно... На самом деле /services/-это заглушка, тк я пока не уверен, что стоит показывать свою единоличную сущность :)
-это в обычном тексте, я понимаю? цвет ссылок недостаточно отличается от цвета текста? Я-то уже пригляделся, и замечаю ссылки...
-это в тексте статьи (где разбито на разделы) или в менюшке?
AiK
-я, конечно, ее не ручками собирал. Просто нашел адрес, по которому можно скачать все оптом.
-намека не понял :) Настройка белого листа далеко не везде включена, это, скорее, редкость. ББ-то позволяет, да хозяева систем не позволяют... А как может меняться статистика? Если есть перекос за счет черного листа, на всеми отвергнутом сайте будет показываться заглушка. Но она ведь включается в его показы...
У меня такое ощущение, что снижен вес тайтла в расчете релевантности...
-не делать таких гадостей :)
А чем плохо просто положить их на сайт и сделать внутренние ссылки? Или они лежат на других сайтах? Со временем все сам найдет. Куда торопиться? Быстрее проиндексят - быстрее выкинут...
-2 варианта - либо их предположительно не найдут (тогда торопиться некуда - он их без тебя найдет), либо предположительно быстро найдут - тогда какая разница? все равно засекут.
Хорошие списки прокси всегда надо проверять, а то Яндекс быстро их вычищает. Или вычищал? Я давно не проверял.. Пример скрипта на perl - есть для работы просто с прокси (1 уровень), а для сокс5 надо просто найти библиотеку к perl и прочитать описание. Ну и списки сокс5-прокси.
http://mnogosearch.ru/
-ну спаммерские-то ладно, а чем плохо собрать немного адресов с соответствующих музыкальных сайтов и разослать по ним? Спамом, думаю, это не посчитают... если по теме... Я могу собрать, а разошлете сами.
- а мне кажется, это у поисковиков не получится играть на опережение с раскрутчиками. По определению -SE подстраиваются под инет. И под его изменения, с неким опозданием.
-не верю. Такого понятия, на мой взгляд, вообще нет. Естественный- сколько угодно, но не релевантный. Релевантный чему? Запросу. Сравним 2 естественных текста на одну тему - один из них будет более релевантен некому запросу. А если таких текстов 11? Последний вылетит на 2 страницу. А первые 10 хоть и естественные, но могут быть генерированными и оптимизированными. Под "критерии" релевантности, которые на самом деле с релевантностью связаны очень слабо, т.к. они именно текстовые, а не смысловые. Релевантность по смыслу - это сила, а все остальное (текстовая рел-ть)- подделка и упрощение. То же с естественностью. Имхо.
- у меня немного есть :), но давайте создадим статью с отдельными развернутыми мнениями людей. Перед этим поставив задачу... Кто хочет заняться?
-Мне тоже кажатся так, но с не просто последователей, а глупых и беспринципных последователей. Если бы у Андрея Иванова на этих страницах с запросами Яндекса было хоть немного инфы по теме- они бы не были забанены. Просто не за что было бы банить.
"Вы ведь не сомневаетесь, что Эксперимент - это Эксперимент? Не экскремент, не экпонент, не перманент, а именно эксперимент?"
(С) Стругацкие
Могу прислать тебе скрипт на php для определения языка. Самописный. Т.е., поисковикам он выдаст разные языки в зависимости от резольвленного доменного имени. А людям - от разных cookies, ACCEPT_LANGUAGE, HTTP_REFERER, домена... С переключением языка.