- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет.
Не так давно сотрудники Яндекса говорили о том, что теперь размер формулы ранжирования увеличился до сотен мегабайт. Но ведь практически невозможно просчитывать в реальном времени релевантность документов по такой гигантской формуле. Получается, основная масса параметров рассчитывается отдельно и, следовательно, запросонезависима? Как вы думаете?
inductor, почему не возможно в реальном времени? Все очень даже быстро считается. :)
Там дерево, что ли?
Там целый лес...
Это, наверное, в формате .doc или .ppt :)
Всем привет.
Не так давно сотрудники Яндекса говорили о том, что теперь размер формулы ранжирования увеличился до сотен мегабайт. Но ведь практически невозможно просчитывать в реальном времени релевантность документов по такой гигантской формуле. Получается, основная масса параметров рассчитывается отдельно и, следовательно, запросонезависима? Как вы думаете?
Это, наверное, в формате .doc или .ppt :)
Совершенно верно.
ТС, поверьте, у яндекса хватит мощности;)
Это, наверное, в формате .doc или .ppt :)
Или даже в .PSD, сам Лебедев помогал рисовать, формула с дизайном :D
280 Мб удивляет только тех, кто еще не понял, что такое матрикснет, или поленился немного посчитать. :)
Примерно посчитать не сложно. В формулу входят несколько независимых вариантов, больше 10, но меньше 100, как сказали на YaC 2010. Это, например, варианты для разных регионов и разных геозависимостей. Положим, что их всего 20. Тогда на одну формулу приходится 280 / 20 = 14 Мб.
В формуле около 2К деревьев, т.е. на одно дерево приходится примерно 14М / 2К = 7 Кб.
В дереве - до 10-ти условий и до 2**10=1024 значений, каждое значение занимает явно не один байт. В 7 КБ все это воткнуть не так-то просто.
Так что общий размер в 280 Мб вполне логичный и ничего удивительного в нем нет. :)
280 Мб удивляет только тех, кто еще не понял, что такое матрикснет, или поленился немного посчитать. :)
:)
+ держать 280 мб в озу как бы проблем не составляет => все быстро
+ древовидное представление намекает на логарифмическую (точнее - двоичный логарифм) зависимость временной сложности алгоритма от объема данных формулы. Грубо говоря, при увеличении объема "формулы" в 2 раза, придется в среднем делать на 1 итерацию больше. => все очень быстро.
Там целый лес...
Вот она - формула релевантности Яндекса :)
держать 280 мб в озу как бы проблем не составляет
Ну да, хотя в целом с озу там вроде небольшие траблы есть, из-за некоторых других данных.