Этот прием некорректен. Опросы проводятся по общеизвестным вопросам.
А вы возьмите свой сайт, который создан был 10 лет назад и на него ходило 3 человека (какую-нибудь старую homepage) и по ней всеравно на Алекса статистика будет.
Из десятка миллионов тул баров при этом вообще никто может на ваш сайт не заходить. А статистика будет показана.
Почему вы не хотите допустить мысль о логах? Это что-то настолько крамольное?
Это ведь не персональные данные. Тут ведь не о посетителях идет речь, а о сайтах.
Тем более, что логи могут предоставляться обезличенными.
Не-а-а-а-а-а-а-а!
Alexa НЕ собирает статистику через свой тулбар. По крайней мере не только. Ведь этот тулбар ну совсем не у всех. А значит и статистика будет никакой достоверности.
Яндекс.Браузер, Яндекс.Бар не стоит ни у одного из моих знакомых. А после навязчивого предложения скачать и поставить броузер (на главной странице поиска) вообще не хочется этого делать.
А вот логи с маршрутизатора или файрвола дадут близкую к 100% достоверность. Просто их много и анализировать надо много. Но зато - это информационный куш.
Дя я в принципе не о том, зловеще это или нет. Ну анализируют. Ну и ладно. Глупо было бы предполагать, что в стране этого никто не анализирует.
Просто, если это учитывается в оценке ресурсов, то алгоритмы оптимизации нужно планировать по-другому.
Например, можно сгенерировать траффик с разными заголовками, с разных хостингов, из разных регионов и посмотреть, появится ли дополнительная посещаемость.
Здесь под словом статичный сайт понималось не то, что он не PHP-шный, а то, что он не менялся. Сделал, загрузил и смотрим.
Так вот. На основе эксперимента у меня только укрепилось мнение, что для положения сайта в выдаче используется не столько
-количество контента
- качество контента
- оригинальность контента (не тыренность)
сколько еще один параметр.
Вы ведь знаете, что есть сервис Alexa который показывает график роста посещаемости сайта. Но при этом никаких счетчиков на сайте нет, а графики есть. Объяснение одно - Alexa имеет доступ к логам узловых маршрутизаторов (или что-то похожее) и их анализирует.
Нет у вас впечатления, что Яндекс использует так же доступ к логам каких-то маршрутизаторов. И если сайт посещаем БЕЗ посетителей с Яндекса (прямые заходы на адрес сайта), то такой сайт признается качественным и он поднимаетя в поисковой выдаче?
После этого плсещаемость на сайте уже есть как по прямым заходам на URL так и с Яндекса.
Ведь если посетители запомнили адрес сайта и заходят напрямую, то это как ничто другое характеризуют его как качественный.
Дискуссия все время пытается уйти в сторону. Как поисковики могут оценить качество шаблонов и их новизну? Искусственный интеллект? Куча молодых спциалистов? Верите в это?
1. Вывод - по дате изменения на веб сайте. Да/Нет?
Как вообще можно оценивать сайты в автоматическом режиме? Можно предположить исходя из логики, что есть некие "вечные ценности": 1. количество и оригинальность контента, 2. количество и качество ссылок, 3. как часто меняется контент. Что еще можно ценить? Вот баланс этих ценностей можно сильно заморочить в итоговой оценке. Это да.
2. Но вот эксперимент это как-то совсем не подтвердил. Если только не брать пункт 3. - как часто меняется контент.
Есть еще один вариант для оценки сайтов, но о нем почему-то не пишут ...
Немного не так.
Представьие, что вы выкладываете какой-то контент, который имеет спрос. Бесплатные шаблоны всегда имеют спрос. Навыкладывали 2000 страниц. Потом по какой-то причине перестали.
В то же время кто-то начал выкладывать свои шаблоны и пока всего 30-50 шаблонов и страниц, но у него 'процесс идет' - ' что-то делают со своими сайтами'. То в этом случае посещаемость должна быть выше? Такой сайт качественнее получается?
Тогда что-же, надо писать генератор контента и веб страниц и пусть себе масса наращивается и в выдаче будут высокие позиции?
Понятно, понятно. Про это пишут годами.
Но вот "каждая селедка рыба, но не каждая рыба селедка".
Скачиваете статистику запросов и генерируете по ним веб страницы... Понятно. И так какждый раз, как появляется новая статистика.
Хорошо.
А вот блоги. Тематика не всегда одна и та же. Сегодня 2 поста о Wordpress, завтра - о Joomla, потом - PHP и т.д. При 10-15 постах в день, через 2 года 12 тысяч посещений в сутки.
И это при том, что
- в Internet есть преотличные учкбники и справочники по Wordpress, PHP и т.д. Но они статичны.
- тематика не каждый раз совпадает с статистикой запросов
Получается, что форум раскрутить выгоднее, чем написать реально интересный (полезный) контент. Поисковики это перестали ценить.
Суть эксперимента - посмотреть имеет ли значение количество контента для посещаемости сайта. Сайты были созданы с использованием только HTML, чтобы было больше прозрачности - ни накруток через скрипты, ни автоматических генераторов веб страниц.
Был написан контент на однозначно популярную тему - бесплатные шаблоны сайтов. Сайты во всем однотипны, только контент отличается. Весь контент специально написан. Использованы H1-H3, ссылки с всех вторичных страниц на index.htm
В index.htm есть ссылка на sitemap с ссылками на все веб страницы.
Все веб страницы проиндексированы в Яндексе.
При разнице в объеме контента в70 раз посещаемость и там и там - никакая. Общего у сайтов - то, что это не блоги и там нет постоянного потока постов и XML RPC в поисковики.
Мнение о неинтересности сайта разделять трудно, т.к. тогда поисковик должен как-то определять интересность/неинтересность. Искусственный интеллект какой-то?
Получается, что если написать 2000 оригинальных веб шаблонов, выложить и не развивать, то посещаемость будет такая же ничтожная.
А если написать скрипт, который будет вносить изменений в несколько веб страниц и сообщать черех XML RPC, то все будет нормально?
Наверное мало дал информации.
Были выбраны сайты с невысокой посещаемостью 70-100 хостов в сутки. Темы не первостепенные, по которым много конкуренции.
И вот на такие сайты (а их не 10 штук) добавляется от 20 до 50% веб страниц. Внутренние ссылки на главную, тэги, ключевые слова (некоторые из сайтов - по 2 ключевым словам), заголовки и т.д. - все есть. Проходит до полугода! Страницы давно проиндексированы. А посещаемости не прибавилось вообще. Порсто НИСКОЛЬКО.
"можно добавить 10-20 нужных и трафик будет на порядок выше"
Куда еще и что можно добавить, чтобы страницы получились нужными? Если на эти страницы никто не приходит. Причем, до эксперимента была сезонность. Летом посещаемость падала. К зиме повышалась до хороших значений. В этот раз до самого Нового Года СУММАРНО не прибавилось ничего! На какие-то сайты прибавилось, но с других пропорционально убавилось. Прямо load balanceing какой-то.
Около 1000 веб страниц добавлено, а не статей.
Я считал, что такое количество должно было добавить посещаемости. "Полка" как-то должна была возрасти. Страницы добавлялись точно по теме сайтов. И очень озадачивает, что на сколько посещаемость одних сайтов снижается, точно на столько же посещаемость других возрастает. Очень точно и периодически. Где-то каждые 2-3 недели.
Для ClockWorkOrange
В большинстве крупных фирм и так на входе/выходе стоят прокси и файрволлы, которые позволяют обрабатывать проходящий траффик. Кроме того, использование анонимного прокси - дело добровольное. Ведь на таком прокси-сервере накапливается информация о просмотренных сайтах, интересующих тематиках, поисковых запросах и т.д. Такая информация тоже имеет цену. Тут уж пользователи сами должны решать использовать или не использовать внешний прокси-сервер.