- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Прежде всего хочу поблагодарить топикстартера за то, что он не побоялся негативной реакции и открыл интересную тему.
С чем я не согласен? Прежде всего с тем, что нас скоро ожидает новая эпоха (не важно как ее называть). Смена эпохи подразумевает революцию, радикальные изменения, какой-то скачок в развитии. Вот это нам, по моему скромному мнению, в обозримом будущем не грозит. Почему? Да хотябы потому, что поисковикам самим не выгодны радикальные изменения. Это как с курсом валюты. Самое опасное для рынка - резкие скачки. Я надеюсь, со мной не будут спорить, что деньги и с ними рыночные механизмы все сильнее влияют на Интернет. Ссылки уже более товар, чем критерий авторитетности, как это было тогда, когда только появился PR.
Учет статистики переходов по ссылкам из выдачи уже реализован во многих поисковиках. Как учитывается эта статистика, поисковики пока не раскрывают. Схема же, предложенная автором, вряд ли жизнеспособна. Например, автор полагает то, что необходимые коэффициенты, призванные уравнять шансы ссылок, расположенных на разных позициях в выдаче, не зависят от запроса. Этот коэффициент должен учитывать психологию пользователя, а она у разных групп пользователей разная. Например, на "женских" запросах статистика будет отличаться от "мужских". Как быть?
Ну, я уж не буду ничего писать про положительную обратную связь. :)
questor,
безусловно применял в работе
Из диалектики известно, что развитие всегда идет по спирали. Думаю через некоторое время контент снова обретет большой вес, но на качественно ином уровне. Поисковики будут способны определять "смысл". Грубая статистическая оценка уступит место "интеллектуальной".
Вот допустим такую ситуацию, когда на сайт заходят десятки тысяч уникальных айпишников в день из поисковиков.
А как они в поисковик попадают это большой вопрос.
Можно легко накрутить заходы по ключевым словам просто разместив в спаме либо прямую ссылку с запросом в поисковик, либо слова ищите нас по словам: "Накрутка сайта".
Ну и программу "Хамеллеон", которая будет по открытым проксям скакать и кликать тоже не сложно написать (проверено на Директе, работает ;-).
А что на счёт офлайн рекламы, которая также делает сайт конкурентным.
Здесь так тупо с рейтингованием поступать нельзя!
Вот идея Рамблера со счётчиком на сайте, который всё учитывает, является самой интересной, т.к. о рейтинге сайта надо судить не только по заходам с поисковика по ключевой фразе, а и по общему ядру посетителей.
А качественным скачком могла бы стать реализация в поисковой системе механизма распознавания тематики сайта с жесткими условиями наличия определённого семантического ядра.
Или взвешанная выдача с учётом нескольких поисковых систем, если не ошибаюсь, то как на ливинтернете.
Или организация группы независимых экспертов (компаний 150), которые смогут рейтинговать выдачу по строгому регламенту и отвечать за свои действия, причём только по механизму штрафов, а не бонусов (хорошие сайты, без нарушений всегда выходят вверх).
Ну и можно, всё сразу!
На мой взгляд рановато менять эпоху, когда эта использована и отшлифована наполовину. Можно начать банить за каталоги ссылок-сайтов, где сайты всех тематик, либо не учитывать ссылки со страниц ссылок. Это все не сложно сделать, а результат будет очень неплохим.
Так же можно еще синтезировать предыдущие эпохи, и попытаться получить более хороший результат.
Если говорить о кардинально новых идеях и решениях, то на мой взгляд, это только счетчик поисковых систем, типа Rambler Top100, который будет отслеживать поведение пользователя на конкретном сайта - время, количество просмотренных страниц и т.п.
Конечно, неправильно, насильно всем счетчики ставить, но, на мой взгляд, если и говорить о том, что хочет пользователь, это единственный способ.
А на счет сниппетов и Заголовка - это мне напоминает недавнюю любовь подбирать заголовки сайта в каталоге Rambler Top100 - посмотрел какой у лидера, подправил пару слов, вот и у тебя уже примерно тот же эффект. Особого ума не надо, и для дорвея эту операцию проделать будет несложно
Ну да! А если они еще могут менять описание (сниппет), получается Нейрон :)
Кстати, о птичках.
Есть мнение, что эти клики Яндекс считает для того, чтобы выявлять дорвейные сайты по большой посещаемости. А именно, если у сайта посещаемость с Яндекса превысит, например, 500 хостов в день - смотреть на этот сайт более пристально. Особенно если резкие скачки посещаемости.
Ибо по выдаче прогнозировать посещаемость сложно, т.к. надо напрягаться и учитывать частоты запросов + влияние сниппета и текста ссылки непредсказуемо.
Был у меня пару лет назад примерчик... Сайт был типа такого каталога на разные темы по низкочастотникам... Так пока посещаемость была ниже 500 в день - жил нормально, а потом - бац, и забанили.
Допустим сайт стоит на первой позиции. Опытным путем можно вычислить какой процент пользователей кликает на первую позицию только из-за того, что он первый. Допустим это в среднем 70%. Так вот если у сайта CRT = 90% то отнимая его погрешность 90-70=20% - это и будет его реальные CRT
далее вторая позиция - допустим у нее погрешность 65% и т.д. дашьше 3 страницы видимо можно коэфициент погрешности вводить уже не для позиций а для страниц и ниже и ниже, вплоть до 0. Как может быть резонанс? Чем ты выше, тем больше тебя ограничивают и CTR от позиции ни как не зависит, в большей степени идет оценка внешнего вида заголовка, сниппета и что не маловажно бренда компании/товара/марки и т.д.
Что получается? Если пользователь удовлетворен поиском на первой странце, то перетусовка идет здесь. В конечном итоге пользователь удовлетворен поиском - он нашел что ему нужно и дальше не лезет. Если пользователь лезет на 2,3,4 и т.д. страницу, то значит данные на 1 страницы его не устраивают по тем или иным причинам (устарели и т.д.). Каждый клик на странице дальше от первой приносит больший показатель CTR и как следствие это ведет к повышению позиций ресурса, но на одном CTR в первую десятку допустим с 3 страницы не прыгнеш, в крайнем случае на вторую. Кординальных изменений нет.
Я думаю что систему отлова кликов следует использовать не для переколбаса выдачи, а для убирания из выдачи инородных элементов. (Просто если менять выдачу на основании этих CTR, то и сами "средние" CTR на которых вы основываетесь тоже будут меняться постоянно, а модель завязанная в кольцо чего-то мне не очень нравится.)
Например на достаточно высокую позицию по запросу(пример корявый и от балды - но не суть) "как настраивать почтовый клиент The Bat" вылез сайт содержащий кучу текста и в конце каждого абзаца предложение "Это тебе не почтовый клиент The Bat настраивать." а также имеющий кучу бэков с этой фразой, на сайте естественно(серенький дор такой) продаётся книжка по настройке этого The Bat'а. Так вот количество пользователей кликнувших на ссылки стоящие после этой будет значительно отклоняться вверх от некой усреднённой кривой(только не спрашивайте на основании чего её строить - тут можно долго и нудно предлагать кучу моделей и вариантов) - и на основании этого либо следует подать сигнал специально обученному человеку сидящему у стойки с фильтрами :) , либо при превышении некоего порога наложить фильтр на сайт, а потом уже подать сигнал.
Вы правы, что не соглашаестесь...
При таком подходе, выходные параметры системы влияют на входные, грубо говоря. Однако, для это (раз уж тут все специалисты по теории управления) вводятся сис-мы авт. управления, которые отслеживают изменение ошибки и подают на вход уже сигнал с учетом ошибки.
А что если ранжировать ТОП?
Shustov,
Чтобы учесть ошибку, ее нужно определить. Здесь ТАУ не поможет. Здесь придется говорить о теории принятия решения. Чтобы система была стабильна, она должна равноудалится от всех точек нестабильности....
=)) ОТ ПОЛЬЗОВАТЕЛЯ!!!!!
Если кликать не будут, то чичтема будет работать идеально!
Повторюсь с такой вариацией.
Берем перве 10-20-30-40-50 сайтов. Так, чтобы каждая пятерка(например) побывала на первом мете. Конечно-же ориентируясь на дни недели. Набрав базу результатов, можно создать начальные коэффициенты, с учетом остальных факторов.
При попадении новых сайтов в топ, требуется полный пересчет.
PS Модель может работать только для высокочастотных запросов, имеющих высокий период актуальности.
Как быть с сезонными и событийными запросами???? (ведь просто не будет времени, чтобы определить и отбросить ошибку)
А с низкочастотниками - труба вовсе.