- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Много интересного материала, спасибо.
Общий вывод (для фирилансера, не имеющиего штата математиков, как altertrader) напрашивается следующий:
анализировать сайты из ТОПа, повторять их параметры (частотности, объемов текста и кол-ва страниц, структуру, юзабилити и тд)
и копировать ссылки их доноров, желательно со страниц с похожими параметрами.
Тогда есть шанс, что в формулах матрикснета продвигаемый документ будет признан релевантным.
Как-то так ... или что-то упустил?
или что-то упустил?
Да почти всё и упустили.
Заменить математику созерцательным шаманством... хочется многим.
да, вы правы.
Хочется некоего упрощения, так как строить анализы, как altertrader
у одиночек вроде меня займет столько времени, что яндекс уже уйдет далеко, одному не догнать.
Поэтому максимально упрощаю.
alehvx добавил 16.10.2011 в 23:05
При этом разумеется следует руководствоваться числовыми показателями параметров, полученных от доноров.
alehvx добавил 16.10.2011 в 23:19
Извиняюсь, но вы используете при анализе релевантности документа или доноров подобные описанным в статьях обучающиеся алгоритмы?
alehvx добавил 17.10.2011 в 08:13
Понял, что величина влияния отдельного параметра связана со всеми другими параметрами документа, и определяется "обученной формулой".
Получается, что нужно
1. построить собственную модель самообучаемой формулы, на основе обучающей выборки - данных серпа яндекса, аналогично задаче
http://imat2009.yandex.ru/datasets
2. выполнять анализ оптимизируемого документа с использованием собственной модели.
При такой схеме не понятно, каким образом можно получить используемые яндеском 245 признаков, для каждого документа? А при существенно меньшем количестве параметров, насколько будет полезна эта модель?
1. построить собственную модель самообучаемой формулы, на основе обучающей выборки - данных серпа яндекса, аналогично задаче
А где взять живые данные? Там сидят люди ставят оценки. На их основе учится модель. А вы их откуда возьмете?
П.С. понял будете брать выдачу яндекс.
Вот только зачем?
Может вы и сможете получить данные об алгоритме, но управлять положением сайта в выдаче в с помощью этих данных не сможете.
Модель даёт комплексную оценку. Она не говорит "Хозяин - если бы еще добавить ссылок с такими анкорами и с давностью 5 лет то был бы плюс в позицию". даже сами яндексоиды не знают почему тот или иной сайт занимает позиции и не могут знать.
А выполнить комплексную оценку можно всегда - вбейте в поиск и посмотрите на какое место ваша страница занимает))) - для этого модель не нужна)
Ну допустим вы сможете через свою модель все эти 250 факторов и их значения в зависимости о сайта и запроса. Но управлять то вы можете из них только 10-20.
А еще забыл что для того чтобы модель наполнить данными нужно будет строить армаду пауков и всю сеть анализировать.
для того чтобы модель наполнить данными нужно будет строить армаду пауков и всю сеть анализировать
Яндексоидам хватает относительно малого количества оцененных документов/запросов, чтобы ранжировать все по всем запросам.
Да почти всё и упустили.
Заменить математику созерцательным шаманством... хочется многим.
Ну а че, вроде работает пока такой подход... правда не очень хорошо, но работает..
Яндексоидам хватает относительно малого количества оцененных документов/запросов, чтобы ранжировать все по всем запросам.
Количество страниц которые они оценивали вручную по пятибальной шкале для одного параметра - релевантность документа запросу "200 тысяч страниц"(для региона - Украина в далеком 2009 году)
Да для яндекса это сравнительно малое количество. А для одного человека? А для команды людей?
И потом я жирным выделил что для этих страниц они оценивали только один параметр. Все остальные 245 параметров(для каждой пары документ-запрос) машины считали сами для тех же самых(для которых вручную определялась только одна метрика) документов. А также для всех остальных известных яндексу - считали тоже машины.
Собственно всю эту информацию я именно из ваших ответов и узнал. Спасибо.