- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Собственно, сабж.
Раньше не замечал этого, собственно и не проверял.
Вообщем, не буду рассказывать историю о том как я это нашёл и как я удивился....
Проверял на предлогах, выдача кардинально разнится. Что ещё раз доказывает, что Yandex контенту уделяет всё больше и больше внимания.
Собственно, может это кто и раньше заметил, мне интересно когда это появилось? Выводы я для себя, естественно, сделал, но хотелось бы послушать (почитать) и вас, коллеги.
.kero., немного не в тему, но
если большее внимание удилять контенту, то какраз нужно отсекать реакцию на особенности языка. И мне кажется, что в этом случае должен быть увеличен набор стоп-сло и должен появится список однозначно трактуемых фраз.
То, что происходит сейчас, а именно описаный топикстартером вариант и отличия в выдаче слов с маленькой и большой буквы - это не есть гуд
T.R.O.N, почему не в тему- в тему!
Но я считаю (хоть мне это как сеошнику и не нравится :), что это наиболее простой способ сделать выдачу более релевантной запросу.
.kero., а я-бы был в восторге, если бы были только внутренние факторы или хотябы их доминирование. Об этом я не раз писал в других ветка, и знаю как защитится от доров и других нехороших вещей. Просто это сейчас никому не нужно.
Да, большая новость, однако :)
- е повторите? помнится мы с вами кажется спорили по этому поводу.. интересно у вас всё таже теория? :)
п.с. ну правда интересно )
whiteman,
Если интересно, готов поделится. Есть не только теория но и наработки. Для создаия более серьезной модели нехватает статичтической информации. Сам, действительно остаюсь приверженцем рулежа контента, хотя понимаю почему это сейчас не будут реализовать. Некоторые считают эту идею утопией, ссылаясь на то, что такое уже было. Но было простенькое и слабое(на современный взгляд).
T.R.O.N, контент украдут в первый же день как ваш сайт займет первое место.
Как с этим быть?
Стоп-слова не учитываются (=учитываются с нулевым весом), если они в запросе выполняют свою истинную роль. Например, союз между двумя словами.
Если же стоп-слово одно в запросе, или "криво" в нем написано (например, союз в конце запроса), то оноо учитывается с ненулевым весом, но низким.
Это работает колдунщик Яндекса. В выдаче информация о весах есть, см. reqtext. :)
Это запросто реализуется по принципу "Кто первый в кэше, того и тапки". Согласитесь, что украсть контент раньше, нежели его можно будет найти в выдаче, сложно. Остальное реализовать по принципам, используемым Гуглей при пессимизации за дубликат контента.
Shunya, Еще раз повторюсь. Есть наработки. Просто эта тема больше для других форумов по ТПР или ИИ, или для приватной беседы. В общем случае могу сказать - есть такая вещь как первичность происхождения материала. (временной фактор, только не нужно его привязывать к приходам робота, которые существуют сейчас)