- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
на них проверялось, чтобы выкинуть ссылочный фактор, это логично
Где логика? каким образом это можно будет применить к коммерческой выдаче? Это как с Гипотезой Пуанкаре - да , доказали, но практического применения у этого нет.
ты сам признался, что работает только на запросах, где влияение ссылок ничтожно. равно как и других факторов, которые и я, и ты не можем видеть, находясь снаружи :)
Не, ты не понял, хотя уже ответили. Работать должно на всех запросах. Это задача-максимум. :)
как я и сказал, в этом то основная проблема. невозможно, ИМХО, построить исследование без факторов, которые как минимум не последнее место в ранжировании занимают. даже если брать запросы, где в топе страницы, на которые не куплено в биржах ни одной ссылки. все равно ссылки, вес/возраст/т.п. домена там какое-то влияние да оказывает.
и я ровно об этом и написал. что как у меня тогда получились красивые цифры (плотность 7%, вхождения в тайтл 1.7 и т.д.), но это нифига не масштабируется. если я беру не те 100 запросов, на которых исследование делал, а другие 100 запросов, то все не так уж шоколадно.
точность "угадывания" позиций была 60-70% (если уже память не изменяет), что хорошо, но все равно не айс.
все это мое имхо.
Ну, исследование всегда провести возможно. Вопрос в эффективности его результатов. :D
Масштабируется или нет - проверяется тупо сначала на тестовой выборке, а потом практикой, другого пути нет.
В данном случае идеальный вариант - если в выдаче у всех вдруг отвалятся анкор-файлы, то выдача нашей функции совпадет с выдачей Яндекса на 100%. Это как бы максимум, который можно теоретически выжать из исследования такого типа. :)
Здесь конечно же есть спорная гипотеза. Она заключается в том, что мы считаем, что остальные факторы пары (запрос, документ) слабо влияют на текстовый вклад в релевантность. Т.е. текстовый вклад в релевантность в разных выдачах будет разным в абсолютном выражении, но он все же мало зависим от других. Гипотеза ни разу не очевидная, поэтому, опять же, проверяется только практикой. Т.е. если я подогнал текстовую релевантность на большом числе клиентских документов и в среднем получил явный плюс в позициях, значит метода слегка рулит. Если после подгонки все в окрестностях фифти-фифти, то либо нужно было лучше считать, либо метод дохлый изначально. :D
Пока выборка маловата, но на ней в среднем все гуд, хотя не 100%. Пару документов вытащить не удалось. На больших объемах клиентских сайтов я экспериментировать не буду (своих столько нет, с чужими нет желания делиться), так что с моей стороны серьезной статистики по эффективности не стоит ждать. Малая выборка говорит о том, что метод вполне рабочий. :)
Я, конечно, доклада Гудмана не слышал, но... нет не осуждаю :), а просто позволю себе отвлеченно заметить, что кроме текстовых и ссылочных есть еще вагон и маленькая тележка других факторов.
wolf, мы скоро видео выложим (в плане после выходных), сможете посраца вволю)
Да чего с ним сраться - всё равно отбрешется. Я с Сегаловичем коньяков не пью, мне такие аргументы крыть нечем :)
Пока выборка маловата, но на ней в среднем все гуд, хотя не 100%.
насколько мала? сотни/тысячи/миллион запросов? чем больше, тем больше погрешность будет.
позволю себе отвлеченно заметить, что кроме текстовых и ссылочных есть еще вагон и маленькая тележка других факторов.
во-во, и я об этом собственно и написал чуть выше.
мы скоро видео выложим
а презентации? выложите? выложьте, а? :)
отчет от сеоньюз: http://www.seonews.ru/reviews/detail/120986.php (наверное, самый подробный)
Хороший учитель, видимо :) Ниче, там в презентациях и на видео все есть :)
Опосля выходных уже, вместе с видосом как раз (там без ляля как-то и неинтересно).
Я, конечно, доклада Гудмана не слышал, но... нет не осуждаю :), а просто позволю себе отвлеченно заметить, что кроме текстовых и ссылочных есть еще вагон и маленькая тележка других факторов.
А кто с этим спорит? :)
Да чего с ним сраться - всё равно отбрешется. Я с Сегаловичем коньяков не пью, мне такие аргументы крыть нечем :)
Ты думаешь, что без таких аргументов у мну шансов нет? Наивняк... :D
насколько мала? сотни/тысячи/миллион запросов? чем больше, тем больше погрешность будет.
Вообще-то все как раз наоборот, чем больше хорошая обучающая выборка, тем больше шансов. :)
В моем случае обучалось на выборке примерно в 20К документов. Качество проверялось примерно на 2К документах, потом в реале на клиентских сайтах.
Собственно не понятно, а чем спор. Я заявил, что получил некую функцию, которая повышает текстовую релевантность документа запросу, пока с довольно большой вероятностью. И дал параметры, с помощью которых можно получить аналогичные функции. О чем спорить? У меня это работает, что вы пытаетесь доказать? :)