- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
еще идеи???
Еще идея такая вот тут на форуме приводился пример отказов от страницы.
Например юзер задал запрос в поисковик "Заказать Такси в москве дешево"
Поисковик выдает страницу. Юзер зашел на страницу сайта: увидел цену и телефон фирмы.
Прошло секунд 30 а то и 10 секунд, и все закрыл страницу.
Если на сайте например стоит яндекс метрика то
произошел "отказ". Так вот я считаю поисковики могут делить запросы на типы запросов т.е
"заказать такси в москве дешево" и прибывание юзера на страницы составило 30 секунд это нормаль. А вот если юзер набрал в поисковике "Рецензия на фильм обитель зла 5" и через 30 секунд закрыл страницу сайта то это ненормально. Еще читал такое на зарубежных Seo ресурсах что гугл считает страницу хорошей если юзер находился на ней минимум 1 минуту 30 секунд конечно это зависит от запроса, некоторые источники ставят до 3 х минут. Теперь еще гугл создал соц сеть гугл + ну и соответственно кнопку на сайт добавить в гугл +. А вы знаете что гугл считает количество лайков на страницу а также количество ссылок с лайками ведущими на вашу страницу или ваш сайт с другого сайта на ваш сайт. Я считаю что гугл пытается создать новую
модель ранжирования.
Тоесть отказ от ссылочного ранжирования возможно не полный а на
процентов так 40 или 30.
При котором каждый пользователь интернета ну и гугл + сам становиться
асессором поисковой системы.
Теперь многие могут сказать что типа накрутить гугл + да не проблема пойду да куплю лайки например в Юзераторе. Так вот что мешает гуглу создать среднее значение при котором одни лайки учитываются а другие нет. Ну личный опыт скажу следующие занимался накручиванием лайков гугл + так вот из 30 лайков отвалилось 23 тоесть гугл реально вычислил.
Теперь об оценки дизайна сайта и юзабилити, есть такой ресурс CyberAnalytic, на сколько он
хорошо или плохо оценивает сайты судить не буду, так вот что мешает гуглу ну и яндексу создать нечто похоже но свое, а уж они это могут.
Ну и последнее так сказать поразмыслить на досуге: зачем гугл разработчика ПО платил деньги за
установку тулбара и зачем был создан браузер от гугла хром, ну а потом яндекс браузер, яндексом. Кстати хорошая идея да все руки не дойдут поставить сниффер и посмотреть что сливают тулбары и браузеры.
Лично я считаю что поисковики пытаются перейти ссылочных факторов
на социальные и поведенческие потому что ими труднее манипулировать.
P.S Вот такие мои мутные мысли 🙄
Еще идея такая вот тут на форуме приводился пример отказов от страницы.
Например юзер задал запрос в поисковик "Заказать Такси в москве дешево"
Поисковик выдает страницу. Юзер зашел на страницу сайта: увидел цену и телефон фирмы.
Прошло секунд 30 а то и 10 секунд, и все закрыл страницу.
:
Вы забыли один нюанс. Пользователь после этого открыл или не открыл аналогичную страницу в выдаче. Поисковик это видит, а вот вебмастер нет.
Еще идея такая вот тут на форуме приводился пример отказов от страницы.
Например юзер задал запрос в поисковик "Заказать Такси в москве дешево"
Поисковик выдает страницу. Юзер зашел на страницу сайта: увидел цену и телефон фирмы.
Прошло секунд 30 а то и 10 секунд, и все закрыл страницу.
Если на сайте например стоит яндекс метрика то
произошел "отказ". Так вот я считаю поисковики могут делить запросы на типы запросов т.е
"заказать такси в москве дешево" и прибывание юзера на страницы составило 30 секунд это нормаль. А вот если юзер набрал в поисковике "Рецензия на фильм обитель зла 5" и через 30 секунд закрыл страницу сайта то это ненормально. Еще читал такое на зарубежных Seo ресурсах что гугл считает страницу хорошей если юзер находился на ней минимум 1 минуту 30 секунд конечно это зависит от запроса, некоторые источники ставят до 3 х минут. Теперь еще гугл создал соц сеть гугл + ну и соответственно кнопку на сайт добавить в гугл +. А вы знаете что гугл считает количество лайков на страницу а также количество ссылок с лайками ведущими на вашу страницу или ваш сайт с другого сайта на ваш сайт. Я считаю что гугл пытается создать новую
модель ранжирования.
Тоесть отказ от ссылочного ранжирования возможно не полный а на
процентов так 40 или 30.
При котором каждый пользователь интернета ну и гугл + сам становиться
асессором поисковой системы.
Теперь многие могут сказать что типа накрутить гугл + да не проблема пойду да куплю лайки например в Юзераторе. Так вот что мешает гуглу создать среднее значение при котором одни лайки учитываются а другие нет. Ну личный опыт скажу следующие занимался накручиванием лайков гугл + так вот из 30 лайков отвалилось 23 тоесть гугл реально вычислил.
Теперь об оценки дизайна сайта и юзабилити, есть такой ресурс CyberAnalytic, на сколько он
хорошо или плохо оценивает сайты судить не буду, так вот что мешает гуглу ну и яндексу создать нечто похоже но свое, а уж они это могут.
Ну и последнее так сказать поразмыслить на досуге: зачем гугл разработчика ПО платил деньги за
установку тулбара и зачем был создан браузер от гугла хром, ну а потом яндекс браузер, яндексом. Кстати хорошая идея да все руки не дойдут поставить сниффер и посмотреть что сливают тулбары и браузеры.
Лично я считаю что поисковики пытаются перейти ссылочных факторов
на социальные и поведенческие потому что ими труднее манипулировать.
P.S Вот такие мои мутные мысли 🙄
мыслите отлично
Одна на один запрос. Для Яндекса неповторимых в сутки несколько десятков лямов, 10**10 в год, если неповторяющиеся не начать стирать раньше. Для Гугля больше. И записью может быть нечто произвольной длины, описывающиее запрос/позиции/урлы/клики и время между кликами. И всё это зашумлено...
Тут наверное будет работать "карма" всего домена.
А вообще с редкими запросами труба какая-то - они вроде как редкие, вроде как каждый день разные, да чет статистика у сайтов не скачет так же хаотично.
На больших числах много чего как бы хаотичного усредняется.
И модели могут быть сложнее, чем ПФ для каждого запроса
докладчик предложил рассмотреть «страшный объект», который называется графом запросов, где узел – это запрос, ребро – количество пользователей, переформировавших один запрос в другой, поиск – это случайное блуждание по данному графу. При этом выдача формируется на основе наиболее вероятных точек остановки поиска.
Но когда доходит до реализации, то выясняется, что алгоритм — это не человек, а тупая, упрощённая и лишь вероятносная его версия. Приходится упрощать... и результат может скатиться до того же, что даст какая-то совсем простая модель.