- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Данная тема не пособие по СЕО, хотя, уверен, большая часть факторов реально влияет. Это фак для вебмастеров, как и что нужно делать, что бы на выходе получился качественный сайт, готовый к онлайн жизни. К сожалению 99% "вебмастеров" думают, что они и так все знают, а это плохо.
На счет форматирования текста, титлов - много верно, но не досказано. Во всяком случае соблюдение этих правил точно не даст отрицательный эффект. )
Ну да, именно так. Поэтому измерения такого вклада в каком-нибудь экселе становится проблематичным. Хотя есть множественный корреляционный анализ, там что-то вытянуть удается иногда.
Если стоит задача продвинуть документ по определнному запросу в топ - что тогда делать? раз у значимых факторов (внешие и внутренние ссылки, оптимизация документа и проч.) такой низкий процент, как вы говорите ? :) Если все так - то получается никакой сайт в топ вывести невозможно чисто теоретически - коэффициент у факторов на которые можно повлиять низок и в топе будут находится только те сайты, которые там уже находятся, т.к. на выдачу нельзя повлиять толком.
Если стоит задача продвинуть документ по определнному запросу в топ - что тогда делать? раз у значимых факторов (внешие и внутренние ссылки, оптимизация документа и проч.) такой низкий процент, как вы говорите ? :) Если все так - то получается никакой сайт в топ вывести невозможно чисто теоретически - коэффициент у факторов на которые можно повлиять низок и в топе будут находится только те сайты, которые там уже находятся, т.к. на выдачу нельзя повлиять толком.
В топе буду находиться сайты, которые там с какого числа стоят? И они что, Яндекс-медом намазаны? ;)
Если стоит задача продвинуть документ по определнному запросу в топ - что тогда делать? раз у значимых факторов (внешие и внутренние ссылки, оптимизация документа и проч.) такой низкий процент, как вы говорите ? :) Если все так - то получается никакой сайт в топ вывести невозможно чисто теоретически - коэффициент у факторов на которые можно повлиять низок и в топе будут находится только те сайты, которые там уже находятся, т.к. на выдачу нельзя повлиять толком.
Ну низок, но повлиять то все-равно можно, значит выдача будет меняться. Или я не прав?
Ну низок, но повлиять то все-равно можно, значит выдача будет меняться. Или я не прав?
Конечно прав. :)
Ну низок, но повлиять то все-равно можно, значит выдача будет меняться. Или я не прав?
Вопрос лишь в том, чтобы успешно менять в нужную сторону, да еще и системно.
Если стоит задача продвинуть документ по определнному запросу в топ - что тогда делать? раз у значимых факторов (внешие и внутренние ссылки, оптимизация документа и проч.) такой низкий процент, как вы говорите ? Если все так - то получается никакой сайт в топ вывести невозможно чисто теоретически - коэффициент у факторов на которые можно повлиять низок и в топе будут находится только те сайты, которые там уже находятся, т.к. на выдачу нельзя повлиять толком.
Факторов-то ведь много. Вот и влиять на каждый из тех, на которые можно повлиять.
А написано по текстовым факторам, конечно, очень наивно. Например, я так понял, автор не подозревает о существовании tf*idf
Сергей, мне кажется, даже подозревая об их существовании, применять их на практике довольно проблематично :)
Я почитал про tf*idf
В презентации к своему докладу "Внутренние факторы, влияющие на индексирование и ранжирование" вы пишете:
Примеры p:
ICF = TotalLemms/CF
IDF = D/DF
Где TotalLemms - общее число вхождений всех лемм в коллекции
CF - число вхождений леммы в коллекцию,
D - число документов в коллекции,
DF - число документов, в которых встречается лемма
Насколько я понял, леммы здесь - парадигматические формы одного слова, например (окна, окно, окном, окну, окнами и т.п.)
Соответственно ICF, насколько я понимаю, идентичен отношению сумме форм конкретного ключевого слова в коллекции к числу вхождений конкретной формы этого ключевого слова в коллекции.
IDF - отношение количества всех документов коллекции, к количеству документов содержащих конкретную словоформу
Правильно я вас понял, что коллекция здесь - условное понятие, которое может подразумевать как область конкретного сайта, так и область всей индексной базы Яндекса.
Далее вы пишете:
1) по длине документа (DL)
Пример:
tf = TFнорм = TF/(TF+k1+k2*DL),
k1=1, k2=1/350 - из формулы слагаемого за встречаемость слов документа алгоритма текстового ранжирования Яндекса на РОМИП-2006 (модификация формулы Okapi BM25)
1. TF/(TF+k1+k2*DL) не может быть больше 1 и меньше нуля, следовательно всегда 0<tf<1
2. Судя по графикам, было бы разумно, если бы tf колебался между 0,85 и 0,98.
3. Средняя tf уменьшается, при увеличении DL
Для чего эта функция могла использоваться в Яндексе? Вероятно так определялась оптимальная плотность вхождения словоформы в документ, за счёт чего страницы сайтов могли понижаться или повышаться в релевантности.
На первый взгляд напрашивается вывод.
Плотность словоформ при увеличении длины документа растет линейно и непропорционально, т.е. при меньшем количестве слов, плотность ключевых слов выше.
Вероятно раньше, поставив чистый эксперимент можно было определить, какой tf выбирал Яндекс. Но сейчас видимо формулы другие, а учитывая механизм самообучения Матрикснета разумно предположить, что Яндекс может изменять подобные значения от алгоритма к алгоритму и связывать их со множеством других значений.
ApokalipsYs добавил 01.07.2010 в 12:51
Попробуйте закрыть приличные "полотна" текста, а не кусочек кода на большой выборке
Закрывали. Весьма успешно
Тоже закрывали, тоже успешно.
В качестве небольшого наблюдения можно посмотреть топ10 Яндекса по запросу "продвижение сайтов":
1. bdbd.ru - ~3000 симв. закрыто в <noindex>
3. seo-dream.ru - ~5500 симв. закрыто в <noindex>
Я думаю, <NOINDEX> может быть отрицательным фактором при подобном использовании(оранжевым подсвечены области, выделенные в <NOINDEX>):
Но интересно узнать, определяется ли подобное автоматически.
ApokalipsYs, совет первый - не читайте Википедию для получения знания в специальных областях. Совет второй - раз уж взялись за факторы, то для начала не плохо было бы пройти ликбез по Information Retrieval. Тогда не будут возникать вопросы, что и зачем. А то уж очень всё у Вас, извините, по-школьному получается, раз уж Вы оперируете понятием "оптимальная плотность"
Но интересно узнать, определяется ли подобное автоматически.
Попробуйте сделать сателлитов штук 10 с таким вот содержанием - увидите, как быстро вылетят. :) Хотя некоторые долго висят.
А вроде для Яндекса текст и уникальный получается. :)