- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вобщем тут такая мысля чего-то в голову взбрела...
Вот размещаются статьи, ссылки и т.п., а учитывает ли ПС куда именно в серпе нажал человек, а куда нет?
То есть вводим в ПС запрос "Окна в Москве", получаем список из 10-ти сайтов, на первом, третьем и седьмом сайте человеку понравились описания сайта и он туда тыкнул, перейдя на сайт "1" он пробыл там допустим 6 секунд (понял, что не это ему надо и пошёл дальше искать), перейдя на сайт "3" тоже ничего не нашёл (пробыл 10 секунд), а вот перейдя на сайт №7 по этому списку остался там и больше не стал никуда тыкать, соответственно для него по этому запросу этот сайт интересен и он нашёл там информацию о том, что он искал...
Теперь берем таких людей "5000" за неделю, подключается "супер-компьютер", анализируется информация, кто и где нашёл нужную ему информацию и на каком из "10-ти" сайтов остался...
Получается, что большинство людей остались, допустим, на том "седьмом" сайте, а соответственно он им больше интересен, чем вышестоящие... Ну дальше апдейт и смена мест в серпе...
Кто, что думает, есть ли что-то подобное? Статьи и ссылки тут уже не на столько сильно берутся в расчет, наверное... (дотянул ссылками и статьями до 1-20 позиции и потом уже люди типа решают...)
В Яндексе:
<a tabindex="7" onclick="w(this,'80.22.82','84=90,186=80');" href="http://www.url.ru" target="_blank">Форум - Шина 99</a>
Т.е. может и учитывать, но по-моему не учитывает..
есть ли что-то подобное?
Именно такое - врядли. Наверно наиболее близкое к описанному - так называемый отдел асессоров.
Именно такое - врядли. Наверно наиболее близкое к описанному - так называемый отдел асессоров.
Ну конечно не в таком виде, как я описал, я просто принцип имел ввиду такой...Много факторов ещё можно учитывать...
SotEX добавил 14.06.2008 в 02:01
В Яндексе:
<a tabindex="7" onclick="w(this,'80.22.82','84=90,186=80');" href="http://www.url.ru" target="_blank">Форум - Шина 99</a>
Т.е. может и учитывать, но по-моему не учитывает..
По крайней мере было бы логично со стороны ПС учитывать такие моменты... Изучать интерес пользователей и давать им то, что они хотят...Конечно ИМХО всё, но всё же...
По крайней мере было бы логично со стороны ПС учитывать такие моменты... Изучать интерес пользователей и давать им то, что они хотят...Конечно ИМХО всё, но всё же...
Вполне возможно, что поисковики таким образом определяют "провалы" на которые никто не заходит, а вот что на основании этого условия происходит подъем - лично я не уверен..
Первый лишний.
Миллион раз обсуждалось что ПС на поведение сёрфера в выдаче не смотрят.
Этот топик из разряда: А может ли повлиять на выдачу стата Google Analytics?
Несомненно тулбары инфу о сёрфинге юзера сливают, но это для других целей.
Вобщем тут такая мысля чего-то в голову взбрела...
... трудно избавиться от подобных мыслей, но как делать адекватные выводы по
как сделать вывод о том,
люди ищут очень разную информацию, а ПС ищут только слова.
ПС пытаются использовать при ранжировании всё, что могут, а они не всемогущи.
и люди эти — не только пользователи...
Резонно-логично, но где взять столько адекватных принимателей конкретного решения?
В #2 воспроизведён код выдачи — это позволяет собирать информацию о переходах (ну, сниппет привлекателен), но ПС не может знать, на каком сайте пользователь остался — он может просматривать всё, на что кликнул и не в той последовательности, в которой кликал.
Да, и что значит “остался”? Предположим, пользователь сделал 8 кликов по выдаче, через 3 минуты понял, что нужная ему инфа — нашлась по второму клику, как это поймёт ПС? (сайты остались открыты во вкладках)
В действительности пользователь иногда делает за несколько минут по 5 переходов только по одной выданной ПС ссылке, т.е. картина получается сложнее, и не получится сделать простых и однозначных выводов (а совсем упростить модель поведения пользователя — свалиться в неадекватность и ухудшить ранжирование). Разве что создатели ПС давно провели исследование и выработали некоторые ориентиры.
... ПС на поведение сёрфера в выдаче не смотрят.
Это факт или мнение? (особо “убедительно” слово “Миллион”)
Миллион раз обсуждалось что ПС на поведение сёрфера в выдаче не смотрят.
Этот топик из разряда: А может ли повлиять на выдачу стата Google Analytics?
Несомненно тулбары инфу о сёрфинге юзера сливают, но это для других целей.
Вчера намерено ничего не стал отвечать, попробовал потратить пару часов на поиск нужной информации, но ничего подобного я не нашёл...(если мильён раз обсуждалось, то думаю парочка моментов проскользнула бы перед моими глазами) Да и если что-то подобное, выше описанное мною, и существует (пусть не в таком виде как я это описал), то какой смысл говорить кому-либо, что это используется..?
----------------------------------------------------------------------------------------------------
На эти мысли меня натолкнула одна статья про "Минисайтовый шпион", можно посмотреть, какое именно место вашего сайта заинтересовало пользователя, а какое он просто мельком пробежал...
Давайте попробуем рассмотреть несколько моделей поведения пользователей:
1. Человек открыл ПС, ввёл запрос и как ошпаренный начал тыкать по всем 10-ти результатам.
2. Ввёл запрос, смотрит информацию о первой позиции, переходит на этот сайт, ищет на нём интересующую его информацию, если находит, то больше не ищет и не тыкает, а если не находит, то продолжает поиск и переходит к следующей позиции, допустим сайту №4... (всё образно)
Теперь вопросы:
1. "Сколько времени у обычного серфера уходит на просмотр информации по сайту?" (скорость восприятия информации человеком и т.п.)
2. "Какая из моделей поведения больше подходит под обычного серфера?"
3. "Искал ли серфер дальше, то что ему нужно или удовлетворил свои потребности?"
(Возьмём, что всё дейтствия пользователя происходят в пределах одной сессии и одного запроса)
Всё конечно примитивно, много ещё интересностей есть, но чем не повод задуматься..?
Анализ кликов из страницы результатов поиска производиться никогда не будет, т.к. это бонус дорвеям.
Анализ поведения пользователя на сайте безусловно выполняется, но врядли сколько-нибудь существенно учитывается.
Вообще это параметры которыми слишком легко манипулирвоать, поэтому ПС не могут их учитывать всерьез.
Читал я о приблизительно таком эксперименте для гугла. Было несколько сайтов с одинаковыми параметрами. Искались по одному уникальному запросу. Участвующие в эксперименте пользователи должны были дружно заходить на один из сайтов и тем самым(согласно предположению) он должен был подниматься в выдаче.
Итог: После месяца проведения эксперимента ничего похожего не произошло.