- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Много интересного материала, спасибо.
Общий вывод (для фирилансера, не имеющиего штата математиков, как altertrader) напрашивается следующий:
анализировать сайты из ТОПа, повторять их параметры (частотности, объемов текста и кол-ва страниц, структуру, юзабилити и тд)
и копировать ссылки их доноров, желательно со страниц с похожими параметрами.
Тогда есть шанс, что в формулах матрикснета продвигаемый документ будет признан релевантным.
Как-то так ... или что-то упустил?
или что-то упустил?
Да почти всё и упустили.
Заменить математику созерцательным шаманством... хочется многим.
да, вы правы.
Хочется некоего упрощения, так как строить анализы, как altertrader
у одиночек вроде меня займет столько времени, что яндекс уже уйдет далеко, одному не догнать.
Поэтому максимально упрощаю.
alehvx добавил 16.10.2011 в 23:05
При этом разумеется следует руководствоваться числовыми показателями параметров, полученных от доноров.
alehvx добавил 16.10.2011 в 23:19
Извиняюсь, но вы используете при анализе релевантности документа или доноров подобные описанным в статьях обучающиеся алгоритмы?
alehvx добавил 17.10.2011 в 08:13
Понял, что величина влияния отдельного параметра связана со всеми другими параметрами документа, и определяется "обученной формулой".
Получается, что нужно
1. построить собственную модель самообучаемой формулы, на основе обучающей выборки - данных серпа яндекса, аналогично задаче
http://imat2009.yandex.ru/datasets
2. выполнять анализ оптимизируемого документа с использованием собственной модели.
При такой схеме не понятно, каким образом можно получить используемые яндеском 245 признаков, для каждого документа? А при существенно меньшем количестве параметров, насколько будет полезна эта модель?
1. построить собственную модель самообучаемой формулы, на основе обучающей выборки - данных серпа яндекса, аналогично задаче
А где взять живые данные? Там сидят люди ставят оценки. На их основе учится модель. А вы их откуда возьмете?
П.С. понял будете брать выдачу яндекс.
Вот только зачем?
Может вы и сможете получить данные об алгоритме, но управлять положением сайта в выдаче в с помощью этих данных не сможете.
Модель даёт комплексную оценку. Она не говорит "Хозяин - если бы еще добавить ссылок с такими анкорами и с давностью 5 лет то был бы плюс в позицию". даже сами яндексоиды не знают почему тот или иной сайт занимает позиции и не могут знать.
А выполнить комплексную оценку можно всегда - вбейте в поиск и посмотрите на какое место ваша страница занимает))) - для этого модель не нужна)
Ну допустим вы сможете через свою модель все эти 250 факторов и их значения в зависимости о сайта и запроса. Но управлять то вы можете из них только 10-20.
А еще забыл что для того чтобы модель наполнить данными нужно будет строить армаду пауков и всю сеть анализировать.
для того чтобы модель наполнить данными нужно будет строить армаду пауков и всю сеть анализировать
Яндексоидам хватает относительно малого количества оцененных документов/запросов, чтобы ранжировать все по всем запросам.
Да почти всё и упустили.
Заменить математику созерцательным шаманством... хочется многим.
Ну а че, вроде работает пока такой подход... правда не очень хорошо, но работает..
Яндексоидам хватает относительно малого количества оцененных документов/запросов, чтобы ранжировать все по всем запросам.
Количество страниц которые они оценивали вручную по пятибальной шкале для одного параметра - релевантность документа запросу "200 тысяч страниц"(для региона - Украина в далеком 2009 году)
Да для яндекса это сравнительно малое количество. А для одного человека? А для команды людей?
И потом я жирным выделил что для этих страниц они оценивали только один параметр. Все остальные 245 параметров(для каждой пары документ-запрос) машины считали сами для тех же самых(для которых вручную определялась только одна метрика) документов. А также для всех остальных известных яндексу - считали тоже машины.
Собственно всю эту информацию я именно из ваших ответов и узнал. Спасибо.