- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
еще идеи???
Еще идея такая вот тут на форуме приводился пример отказов от страницы.
Например юзер задал запрос в поисковик "Заказать Такси в москве дешево"
Поисковик выдает страницу. Юзер зашел на страницу сайта: увидел цену и телефон фирмы.
Прошло секунд 30 а то и 10 секунд, и все закрыл страницу.
Если на сайте например стоит яндекс метрика то
произошел "отказ". Так вот я считаю поисковики могут делить запросы на типы запросов т.е
"заказать такси в москве дешево" и прибывание юзера на страницы составило 30 секунд это нормаль. А вот если юзер набрал в поисковике "Рецензия на фильм обитель зла 5" и через 30 секунд закрыл страницу сайта то это ненормально. Еще читал такое на зарубежных Seo ресурсах что гугл считает страницу хорошей если юзер находился на ней минимум 1 минуту 30 секунд конечно это зависит от запроса, некоторые источники ставят до 3 х минут. Теперь еще гугл создал соц сеть гугл + ну и соответственно кнопку на сайт добавить в гугл +. А вы знаете что гугл считает количество лайков на страницу а также количество ссылок с лайками ведущими на вашу страницу или ваш сайт с другого сайта на ваш сайт. Я считаю что гугл пытается создать новую
модель ранжирования.
Тоесть отказ от ссылочного ранжирования возможно не полный а на
процентов так 40 или 30.
При котором каждый пользователь интернета ну и гугл + сам становиться
асессором поисковой системы.
Теперь многие могут сказать что типа накрутить гугл + да не проблема пойду да куплю лайки например в Юзераторе. Так вот что мешает гуглу создать среднее значение при котором одни лайки учитываются а другие нет. Ну личный опыт скажу следующие занимался накручиванием лайков гугл + так вот из 30 лайков отвалилось 23 тоесть гугл реально вычислил.
Теперь об оценки дизайна сайта и юзабилити, есть такой ресурс CyberAnalytic, на сколько он
хорошо или плохо оценивает сайты судить не буду, так вот что мешает гуглу ну и яндексу создать нечто похоже но свое, а уж они это могут.
Ну и последнее так сказать поразмыслить на досуге: зачем гугл разработчика ПО платил деньги за
установку тулбара и зачем был создан браузер от гугла хром, ну а потом яндекс браузер, яндексом. Кстати хорошая идея да все руки не дойдут поставить сниффер и посмотреть что сливают тулбары и браузеры.
Лично я считаю что поисковики пытаются перейти ссылочных факторов
на социальные и поведенческие потому что ими труднее манипулировать.
P.S Вот такие мои мутные мысли 🙄
Еще идея такая вот тут на форуме приводился пример отказов от страницы.
Например юзер задал запрос в поисковик "Заказать Такси в москве дешево"
Поисковик выдает страницу. Юзер зашел на страницу сайта: увидел цену и телефон фирмы.
Прошло секунд 30 а то и 10 секунд, и все закрыл страницу.
:
Вы забыли один нюанс. Пользователь после этого открыл или не открыл аналогичную страницу в выдаче. Поисковик это видит, а вот вебмастер нет.
Еще идея такая вот тут на форуме приводился пример отказов от страницы.
Например юзер задал запрос в поисковик "Заказать Такси в москве дешево"
Поисковик выдает страницу. Юзер зашел на страницу сайта: увидел цену и телефон фирмы.
Прошло секунд 30 а то и 10 секунд, и все закрыл страницу.
Если на сайте например стоит яндекс метрика то
произошел "отказ". Так вот я считаю поисковики могут делить запросы на типы запросов т.е
"заказать такси в москве дешево" и прибывание юзера на страницы составило 30 секунд это нормаль. А вот если юзер набрал в поисковике "Рецензия на фильм обитель зла 5" и через 30 секунд закрыл страницу сайта то это ненормально. Еще читал такое на зарубежных Seo ресурсах что гугл считает страницу хорошей если юзер находился на ней минимум 1 минуту 30 секунд конечно это зависит от запроса, некоторые источники ставят до 3 х минут. Теперь еще гугл создал соц сеть гугл + ну и соответственно кнопку на сайт добавить в гугл +. А вы знаете что гугл считает количество лайков на страницу а также количество ссылок с лайками ведущими на вашу страницу или ваш сайт с другого сайта на ваш сайт. Я считаю что гугл пытается создать новую
модель ранжирования.
Тоесть отказ от ссылочного ранжирования возможно не полный а на
процентов так 40 или 30.
При котором каждый пользователь интернета ну и гугл + сам становиться
асессором поисковой системы.
Теперь многие могут сказать что типа накрутить гугл + да не проблема пойду да куплю лайки например в Юзераторе. Так вот что мешает гуглу создать среднее значение при котором одни лайки учитываются а другие нет. Ну личный опыт скажу следующие занимался накручиванием лайков гугл + так вот из 30 лайков отвалилось 23 тоесть гугл реально вычислил.
Теперь об оценки дизайна сайта и юзабилити, есть такой ресурс CyberAnalytic, на сколько он
хорошо или плохо оценивает сайты судить не буду, так вот что мешает гуглу ну и яндексу создать нечто похоже но свое, а уж они это могут.
Ну и последнее так сказать поразмыслить на досуге: зачем гугл разработчика ПО платил деньги за
установку тулбара и зачем был создан браузер от гугла хром, ну а потом яндекс браузер, яндексом. Кстати хорошая идея да все руки не дойдут поставить сниффер и посмотреть что сливают тулбары и браузеры.
Лично я считаю что поисковики пытаются перейти ссылочных факторов
на социальные и поведенческие потому что ими труднее манипулировать.
P.S Вот такие мои мутные мысли 🙄
мыслите отлично
Одна на один запрос. Для Яндекса неповторимых в сутки несколько десятков лямов, 10**10 в год, если неповторяющиеся не начать стирать раньше. Для Гугля больше. И записью может быть нечто произвольной длины, описывающиее запрос/позиции/урлы/клики и время между кликами. И всё это зашумлено...
Тут наверное будет работать "карма" всего домена.
А вообще с редкими запросами труба какая-то - они вроде как редкие, вроде как каждый день разные, да чет статистика у сайтов не скачет так же хаотично.
На больших числах много чего как бы хаотичного усредняется.
И модели могут быть сложнее, чем ПФ для каждого запроса
докладчик предложил рассмотреть «страшный объект», который называется графом запросов, где узел – это запрос, ребро – количество пользователей, переформировавших один запрос в другой, поиск – это случайное блуждание по данному графу. При этом выдача формируется на основе наиболее вероятных точек остановки поиска.
Но когда доходит до реализации, то выясняется, что алгоритм — это не человек, а тупая, упрощённая и лишь вероятносная его версия. Приходится упрощать... и результат может скатиться до того же, что даст какая-то совсем простая модель.