- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
рандом может быть и с задержкой по времени
всё это пустое пока говорим про разные темы выдачи ИМХО
Ты думаешь, Гугл свой алгоритм подстраивает под разные темы?
Он думает, что в разных выдачах рулят разные методы, это зависит от окружения.
и эта мысль имеет право жить :) вполне возможно
в разной теме разное окружение ... хотя по высококонкурентным думаю что не так уж окружение и разниться ...
та врядли рандом, какой в нём смысл, подсовывать страницы которые могут быть не полезны пользователю, всё такие гугль стремится к тому, чтоб давать пользователю именно то, что он ищет, я думаю что это клики, стоит какой то определённый барьер кликабельности, таймаут или ещё какие то факторы, которые решают быть сайту сегодня, в этот час или завтра, на первой странице на первом месте или нет, думаю что это логично со стороны гугля, как бы получается гугль экспериментируеют стадный эффект, что этим интересно, подсовывает и другим.
то есть я думаю, что гугль стал вести анализ эффективности своей выдачи, а посетители как бы сами ставят оценку за этот анализ, хотя конечно это не по всем запросам ... возможно гугль как то и запросы выбирает, возможно это запросы в которых сайты уже на столько релеванты и на столько продвинуты по меркам гугля, что эти сайты можно уже только предложить таким образом посетителю.
неужели вы думаете, что гуггль будет рендоммить, имея такую махину, такие алгоритмы, рандом - это что то вообще не вяжется с гуглем ... можно понаблюдать в принципе, завести статистику переходов за час и позиции в гугле, каждый час, может быть на основе этого можно будет определить правдиво моё предположение или нет..
есть ещё предположение, что то гугль засылает ещё ботов, которые следят за активностью пользователя на сайте и при этом индексируют страницы, каким образом можно объснить ежедневное присутсвие ботов на тех же страницах.
а гугль бар - это самые настоящие шпион, которые наверняка собирает анализ посещаемости, нужно наверно от этого бара отказываться...
если посмотреть на это всё дело со стороны, покупки продажи, гугль это продавец, который продаёт запросы, как любой продавец надо рекомендовать самые покупаемые товары....
А как объяснить, что сайт два часа на первой странице, а следующие два часа вообще нет в тысяче - и так уже пару месяцев. Это как как-то вообще не вяжется ни с какой логикой. Единственное, что заметно - это выдача у Гугла по одним и тем же запросам: 3 миллиона, а через час 800 тысяч, потом опять 3 миллиона и так постоянно. Получается, что он то включает некий фильтр, то выключает. Но чтобы уже месяц - это уж ни в какие ворота.
А как объяснить, что сайт два часа на первой странице, а следующие два часа вообще нет в тысяче - и так уже пару месяцев. Это как как-то вообще не вяжется ни с какой логикой. Единственное, что заметно - это выдача у Гугла по одним и тем же запросам: 3 миллиона, а через час 800 тысяч, потом опять 3 миллиона и так постоянно. Получается, что он то включает некий фильтр, то выключает. Но чтобы уже месяц - это уж ни в какие ворота.
может это дело в датацентрах?
гугль делает апдейты датацентров или каналы падают
Это вот интерсено. Скажем, со своего компа я запросы шлю к одному и тому же DC или к разным в разное время?
Потому как если сравнивать выдачу сразу по нескольким, то она разнится. Одни DC выдают в десятке, а на других вообще трудно сайт найти. И так долгое время. Хотя сейчас позиции сайта потихоньку на всех центрах сравниваются.
на мой взгляд определяющим является все-таки контент, затем идут внешние ссылки, потом PR.
из моего личного опыта...
речь идет о рандоме уже отобранных тематически-полезных
представим что выбрано 20 сайтов по теме "kasino" - вот они рандомяться в двадцатке .. следующие 100 отобранных рандомят в 21-80 -ке ... следующие 400 в .... ну и так далее ..
хотя я и сам в это плохо верю :)