- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Вопрос не в том как попадает сайт на глаза ассесору, а как попасть в пару проверки "запрос"-"ресурс".
Не верю я, что там тупой random.
Я уверен в том, что они смотрят не по Яндекс-выдаче, иначе 100 процентные предпочтения получили бы сайты в ТОПе.
Скорее всего у них есть какое-то внутреннее приложение для этих целей с собственной выборкой из б.д.
Они могу физически оценить не всю выдачу, - например по конкурентному ВЧ, а только ее часть. Вряд-ли оценивают по основной выдаче Я.
Вообщем правду знают те, кто оценивают - а их надо найти.
Предлагаю воспользоваться поиском Яндекса, чтобы найти, как найти ассесора. "Я. Найдется Всё:)"
В серпе Москвы он улетел в попу. По России он в топе. Логика странная, честно говоря.
Так это и при нынешнем алгоритме заметно
Осмелюсь поинтересоваться, а как в алгоритме "Learning to Rank", на который Яндекс прочно подсел уже пару лет как, могут не участвовать оценки асессоров сиречь обучающая выборка? Или Вы можете предложить, как строить ранжирующую функцию от нескольких тысяч параметров каким-то иным способом? Если да, то Вам надо его срочно запатентовать, это будет революция в Information Retrieval :)
Ранжирующую функцию можно либо строить с нуля, либо использовать уже ранее полученные результаты. Нынче похоже на первое.
Позволю себе лирическое отступление:
не секрет, что на телевидении, кое стало уже коммерциализированным до мозга костей, все программы, фильмы и т.д. часто называют "межрекламкой", т.е. главное - реклама, а остальное - удачные (или неудачные) способы заставить зрителя смотреть рекламу.
IMHO в ситуации с Яшей возможно то же самое: чем труднее пользователю найти нужную информацию, тем охотнее он щелкает по правой стороне страницы... тем самым заставляя рекламодателей тратить рекламные бюджеты не на покупку ссылок, от которых Яше никакого выхлопа, а вкладывать в директ все больше и больше. В конце концов "Я" это коммерческая структура, никому и ничем не обязанная.
ЗЫ почему-то тут многие говорят о фильтрах как о чем-то стабильном и вечном, при том что у фильтров тоже алгоритмы подкручиваются, и тот сайт, что вчера сидел под фильтром, в Снежинске так же удачно "по амнистии" от него избавится
ЗЗЫ была где-то тема на серче, где демонстрировали торчащие на разных сайтах куски "саповского" кода. Вполне неплохой фактор для ранжирования, при этом лежащий на поверхности практически.
Сорри за сумбурность -))
Да-да, Расковалова на ночь тожде читаем ;)
Я увидел это позже. Про то что фильтры сняты знал ранее.
Сами высказаться по новому алгоритму не желаете ли? Как он Вам?
чем труднее пользователю найти нужную информацию, тем охотнее он щелкает по правой стороне страницы..
и тем больше вероятность, что в следующий раз человек воспользуется другой ПС, которая, окромя рекламных объявлений, предложит качественную поисковую выдачу.
Сами высказаться по новому алгоритму не желаете ли? Как он Вам?
как по нему высказываться, если неизвестно, в каком виде он будет реализован? или вам известно?
pfound больше не используется. Теперь рулит жадный алгоритм.
Хм... А зачем сравнивать метрику с алгоритмом? В той же презентации Гулина и Карповича приведены примеры по крайней мере четырех метрик. И теоретически ничто не мешает использовать и pfound вместе с жадным алгоритмом (кстати, откуда уверенность, что жадный алгоритм не используется в Арзамасе?). Вместе с тем, я не уверен, что в Арзамасе используется именно pfound. Предполагаю, что эту метрику использовали чисто для РОМИПа. Т.к. для поиска по вебу, на мой взгляд, недостаточно максимизации вероятности найти один релеватный документ. Надо обеспечить максимально релевантную выдачу хотя бы в первой десятке.
Посмотрим, как жадность справится с релевантностью, я пока не уверен, что идея хорошая. Некоторый максимум такое обучение находит, один из бесконечного множества. И не факт, что хороший, не говоря уже о лучшем...
Это можно сказать о любом генетическом алгоритме.
С генетикой нужно реально на уши вставать как математикам, так и программерам, чтобы быстро было. Не думаю, что Яндекс нашел таких спецов, потому и траблы.
Дык здесь под greedy algorythm наверняка подразумевается жадная генетика. Ну, это когда жадный алгоритм используется для получения нового поколения в генетическом алгоритме.
Ранжирующую функцию можно либо строить с нуля, либо использовать уже ранее полученные результаты. Нынче похоже на первое.
Можно и штаны через голову надевать. Не знаю, что у Вас там на что похоже, но иногда, чтоб не выглядеть смешным, лучше ознакомиться с теорией. Функцию от заявленных тысяч параметров ни с какого нуля не построить. Здесь возможно только обучение и только генетика.