Panas

Рейтинг
132
Регистрация
03.03.2003
Scaryer:
Panas,
И что? Вот статистические опросы проводят среди 1500 человек, а выводы проецируют на всю страну.

Этот прием некорректен. Опросы проводятся по общеизвестным вопросам.

А вы возьмите свой сайт, который создан был 10 лет назад и на него ходило 3 человека (какую-нибудь старую homepage) и по ней всеравно на Алекса статистика будет.

Из десятка миллионов тул баров при этом вообще никто может на ваш сайт не заходить. А статистика будет показана.

Почему вы не хотите допустить мысль о логах? Это что-то настолько крамольное?

Это ведь не персональные данные. Тут ведь не о посетителях идет речь, а о сайтах.

Тем более, что логи могут предоставляться обезличенными.

Scaryer:
Panas,
Всё гораздо менее зловеще - Alexa собирает статистику через свой тулбар и, возможно, какие-то ещё расширения для браузера.

"Яндекс использует так же доступ к логам каких-то маршрутизаторов"
Яндекс.Браузер, Яндекс.Бар и ещё какая-нибудь Яндекс.Хрень.

Не-а-а-а-а-а-а-а!

Alexa НЕ собирает статистику через свой тулбар. По крайней мере не только. Ведь этот тулбар ну совсем не у всех. А значит и статистика будет никакой достоверности.

Яндекс.Браузер, Яндекс.Бар не стоит ни у одного из моих знакомых. А после навязчивого предложения скачать и поставить броузер (на главной странице поиска) вообще не хочется этого делать.

А вот логи с маршрутизатора или файрвола дадут близкую к 100% достоверность. Просто их много и анализировать надо много. Но зато - это информационный куш.

Дя я в принципе не о том, зловеще это или нет. Ну анализируют. Ну и ладно. Глупо было бы предполагать, что в стране этого никто не анализирует.

Просто, если это учитывается в оценке ресурсов, то алгоритмы оптимизации нужно планировать по-другому.

Например, можно сгенерировать траффик с разными заголовками, с разных хостингов, из разных регионов и посмотреть, появится ли дополнительная посещаемость.

cinco:
Теоретически при правильном расширении СЯ и дописывании контента, будет и траф пропорционально расти.

Здесь под словом статичный сайт понималось не то, что он не PHP-шный, а то, что он не менялся. Сделал, загрузил и смотрим.

Так вот. На основе эксперимента у меня только укрепилось мнение, что для положения сайта в выдаче используется не столько

-количество контента

- качество контента

- оригинальность контента (не тыренность)

сколько еще один параметр.

Вы ведь знаете, что есть сервис Alexa который показывает график роста посещаемости сайта. Но при этом никаких счетчиков на сайте нет, а графики есть. Объяснение одно - Alexa имеет доступ к логам узловых маршрутизаторов (или что-то похожее) и их анализирует.

Нет у вас впечатления, что Яндекс использует так же доступ к логам каких-то маршрутизаторов. И если сайт посещаем БЕЗ посетителей с Яндекса (прямые заходы на адрес сайта), то такой сайт признается качественным и он поднимаетя в поисковой выдаче?

После этого плсещаемость на сайте уже есть как по прямым заходам на URL так и с Яндекса.

Ведь если посетители запомнили адрес сайта и заходят напрямую, то это как ничто другое характеризуют его как качественный.

Scaryer:
Panas,
Всё нытьё про падающие сайты строится на одной глобальной ошибке - вы забываете, что интернет и выдача поисковиков - это среда с массой переменных: постоянно появляются и исчезают сайты и ссылки, меняются алгоритмы поисковиков.

Дискуссия все время пытается уйти в сторону. Как поисковики могут оценить качество шаблонов и их новизну? Искусственный интеллект? Куча молодых спциалистов? Верите в это?

1. Вывод - по дате изменения на веб сайте. Да/Нет?

Как вообще можно оценивать сайты в автоматическом режиме? Можно предположить исходя из логики, что есть некие "вечные ценности": 1. количество и оригинальность контента, 2. количество и качество ссылок, 3. как часто меняется контент. Что еще можно ценить? Вот баланс этих ценностей можно сильно заморочить в итоговой оценке. Это да.

2. Но вот эксперимент это как-то совсем не подтвердил. Если только не брать пункт 3. - как часто меняется контент.

Есть еще один вариант для оценки сайтов, но о нем почему-то не пишут ...

Scaryer:
Panas,
Если конкуренты что-то делают со своими сайтами, а вы их бросили на полтора года, почему вам должен полагаться какой-то бонус за то, что "сайт статический"?

Немного не так.

Представьие, что вы выкладываете какой-то контент, который имеет спрос. Бесплатные шаблоны всегда имеют спрос. Навыкладывали 2000 страниц. Потом по какой-то причине перестали.

В то же время кто-то начал выкладывать свои шаблоны и пока всего 30-50 шаблонов и страниц, но у него 'процесс идет' - ' что-то делают со своими сайтами'. То в этом случае посещаемость должна быть выше? Такой сайт качественнее получается?

Тогда что-же, надо писать генератор контента и веб страниц и пусть себе масса наращивается и в выдаче будут высокие позиции?

SmileP:
От конкурентности зависит. Её надо учитывать, надо смотреть на запросы.. все по классике.
А не просто сделать нцать страниц...

Понятно, понятно. Про это пишут годами.

Но вот "каждая селедка рыба, но не каждая рыба селедка".

Скачиваете статистику запросов и генерируете по ним веб страницы... Понятно. И так какждый раз, как появляется новая статистика.

Хорошо.

А вот блоги. Тематика не всегда одна и та же. Сегодня 2 поста о Wordpress, завтра - о Joomla, потом - PHP и т.д. При 10-15 постах в день, через 2 года 12 тысяч посещений в сутки.

И это при том, что

- в Internet есть преотличные учкбники и справочники по Wordpress, PHP и т.д. Но они статичны.

- тематика не каждый раз совпадает с статистикой запросов

Получается, что форум раскрутить выгоднее, чем написать реально интересный (полезный) контент. Поисковики это перестали ценить.

Суть эксперимента - посмотреть имеет ли значение количество контента для посещаемости сайта. Сайты были созданы с использованием только HTML, чтобы было больше прозрачности - ни накруток через скрипты, ни автоматических генераторов веб страниц.

Был написан контент на однозначно популярную тему - бесплатные шаблоны сайтов. Сайты во всем однотипны, только контент отличается. Весь контент специально написан. Использованы H1-H3, ссылки с всех вторичных страниц на index.htm

В index.htm есть ссылка на sitemap с ссылками на все веб страницы.

Все веб страницы проиндексированы в Яндексе.

При разнице в объеме контента в70 раз посещаемость и там и там - никакая. Общего у сайтов - то, что это не блоги и там нет постоянного потока постов и XML RPC в поисковики.

Мнение о неинтересности сайта разделять трудно, т.к. тогда поисковик должен как-то определять интересность/неинтересность. Искусственный интеллект какой-то?

Получается, что если написать 2000 оригинальных веб шаблонов, выложить и не развивать, то посещаемость будет такая же ничтожная.

А если написать скрипт, который будет вносить изменений в несколько веб страниц и сообщать черех XML RPC, то все будет нормально?

ziliboba0213:
Можно добавить 100500 ненужных никому страниц, а можно добавить 10-20 нужных и траффик будет на порядок выше. 🍿 nofollow ссылки - а какой от них прок в плане позиций и соответственно посещаемости, если они не с нужных и посещаемых страниц?:p

Наверное мало дал информации.

Были выбраны сайты с невысокой посещаемостью 70-100 хостов в сутки. Темы не первостепенные, по которым много конкуренции.

И вот на такие сайты (а их не 10 штук) добавляется от 20 до 50% веб страниц. Внутренние ссылки на главную, тэги, ключевые слова (некоторые из сайтов - по 2 ключевым словам), заголовки и т.д. - все есть. Проходит до полугода! Страницы давно проиндексированы. А посещаемости не прибавилось вообще. Порсто НИСКОЛЬКО.

"можно добавить 10-20 нужных и трафик будет на порядок выше"

Куда еще и что можно добавить, чтобы страницы получились нужными? Если на эти страницы никто не приходит. Причем, до эксперимента была сезонность. Летом посещаемость падала. К зиме повышалась до хороших значений. В этот раз до самого Нового Года СУММАРНО не прибавилось ничего! На какие-то сайты прибавилось, но с других пропорционально убавилось. Прямо load balanceing какой-то.

fiho:
1000 нормальных статей за год человек не напишет

Около 1000 веб страниц добавлено, а не статей.

Я считал, что такое количество должно было добавить посещаемости. "Полка" как-то должна была возрасти. Страницы добавлялись точно по теме сайтов. И очень озадачивает, что на сколько посещаемость одних сайтов снижается, точно на столько же посещаемость других возрастает. Очень точно и периодически. Где-то каждые 2-3 недели.

Для ClockWorkOrange

В большинстве крупных фирм и так на входе/выходе стоят прокси и файрволлы, которые позволяют обрабатывать проходящий траффик. Кроме того, использование анонимного прокси - дело добровольное. Ведь на таком прокси-сервере накапливается информация о просмотренных сайтах, интересующих тематиках, поисковых запросах и т.д. Такая информация тоже имеет цену. Тут уж пользователи сами должны решать использовать или не использовать внешний прокси-сервер.

Всего: 114