- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Запрос: лучшая поисковая система
http://yandex.ru/yandsearch?text=%D0%BB%D1%83%D1%87%D1%88%D0%B0%D1%8F+%D0%BF%D0%BE%D0%B8%D1%81%D0%BA%D0%BE%D0%B2%D0%B0%D1%8F+%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D0%B0&lr=1&stpar2=%2Fh1%2Ftm160%2Fs4&stpar4=%2Fs4&stpar1=%2Fu0
6-www.google.ru
7-forum.searchengines.ru
8-www.yandex.ru
Это мы с вами понимаем что яндекс не ахти... А они нет😂
Похоже вылетели сайте тех, кто двигал только дешевыми ссылками в большом количестве.
а что были еще какие-то другие варианты при прошлом алгоритме?
1. Сайту более 5 лет, написал для него хорошие тексты, ссылки не покупались. Итог:с 15-50 мест по ВЧ и СЧ переместился в ТОП-3, остальные в ТОП-10. Все НЧ на 1 местах. Молодые конкуренты вывалились за 4-й десяток :)
2. Сайту 4 месяца, опять же качественные тексты, регистрация в каталогах, покупка ссылок на сапе. Итог: по основному ВЧ запросу упал с 4-го на 7-ю позицию. По НЧ с 40х мест переместился в ТОП-10.
В целом картина меня радует, но логику еще предстоит найти. Из этого примера видно что сильно возросла значимость возраста сайта и ссылок, ну и внутренняя оптимизация, как и всегда, очень важна.
а что были еще какие-то другие варианты при прошлом алгоритме?
Дешевые статьи 😂
Блин, это их самый тупой алгоритм наверное. Новый слоган такой будет: дай путь ГС сайтам.
Сайт с 4 место улетел на 24 место. Что за...
Видео-выдача по запросу "cms"... или так и должно быть?
1. Количество “реальных” факторов вовсе не “тысячи” и его можно оценить:
Несколько тысяч – это с учетом суперпозиций, а их гораздо больше чем самих факторов. Сделаем допущение о том что нет никакого интереса делать какие-то специфические суперпозиции (разве что какие-то единичные) и вполне можно ограничиться полиномиальными моделями. Причем для разных групп факторов степень полинома может быть разной от 1 до много. Если взять эту степень в среднем 2, то получается что исходных факторов вовсе не тысячи, а всего лишь 50-100
А признаков у нас, и правда, несколько сотен.
10 сегаловичей
А признаков у нас, и правда, несколько сотен.
Так я же оценку сделал а не точное количество сказал. То что не 50-100 а несколько сотен объясняется очень просто:
моя оценка базируется фактически на предположении о том что в расчете функции релевантности все факторы участвуют в полиноме второй степени. А тот факт что факторов несколько сотен говорит только о том что сотня-другая факторов участвует в расчете функции релевантности в виде полинома первой степени, без корреляции с другими факторами (о том что это вполне возможно я в своей оценке говорил).
Функции hi ищутся в виде "кусочно-постоянных" функций. Причем пары ai hi ищутся итеративно путем решения локальной оптимизационной задачи аналогичной исходной, но с фиксированными всеми aj, hj где j<i и с нулевыми aj hj где j>i.
Да, сначала ищем hi (в пдфке стр. 20 внизу), а потом ai (стр. 21).
1. Количество “реальных” факторов вовсе не “тысячи” и его можно оценить:
Несколько тысяч – это с учетом суперпозиций, а их гораздо больше чем самих факторов. Сделаем допущение о том что нет никакого интереса делать какие-то специфические суперпозиции (разве что какие-то единичные) и вполне можно ограничиться полиномиальными моделями. Причем для разных групп факторов степень полинома может быть разной от 1 до много. Если взять эту степень в среднем 2, то получается что исходных факторов вовсе не тысячи, а всего лишь 50-100.
Сегалович написал, что больше 100, да это и понятно. Не забывайте еще про два с лишним десятка разных региональных выдач, для каждого региона может быть больше одного параметра. ;)
Какие-то примеры "признаков" можно посмотреть в докладе Яндекса на РОМИП-2006.
Так я же оценку сделал а не точное количество сказал. То что не 50-100 а несколько сотен объясняется очень просто:
моя оценка базируется фактически на предположении о том что в расчете функции релевантности все факторы участвуют в полиноме второй степени. А тот факт что факторов несколько сотен говорит только о том что сотня-другая факторов участвует в расчете функции релевантности в виде полинома первой степени, без корреляции с другими факторами
Цитата как бы говорит, что ваше предположение верное :)
Тысчи признаков участвуют в модели, а количество факторов осталась около преждней поисковой программы. А задача была, по словам сотрудников яндекса, использовать более "длинную" модель.