Извиняюсь, может не внимательно прочитал топ.
А URL указывать один только, или можно в виде: внутренняя страница1-тайтл1-описание1-ключи1;
внутренняя страница2-тайтл2-описание2-ключи2 и т.д.?
Слова, которые не являются ключевыми в запросе и попали в релевантный пассаж на этапе вычисления веса пассажа
енто когда слова в леммах будут встречаться по анкор-базе на порядок реже относительно ключа
Если мы говорим о четких цифрах, давайте в дальнейшем четко указывать TF, TFа, IDF, IDFа
Я понимаю, я хочу сконцентрировать внимание именно на анкор-колекции, и возможной "игры весами" без участия самого запроса в анкоре. Помните "зюзики"? Так и здесь выработать уникальное тематичное словосочетание (ключевик в окружении), скормить поиску по смыслу, и придать ссылкам вид "без ключевика". Возможно ли математически подтвердить, или опровергнуть данную гипотезу, понятно, что на практике без учета знания совокупности статических и динамических анкор-факторов проведение эксперимента нереально.
Извиняюсь, SEO- не моя специализация, а математика подавно, поэтому не ругайтесь громко.
1.Предположим, что норматвность TFa, как и TF есть максимально допустимая константа. Тогда вес документа по отношению термину обратнопропорционален весу самого термина.
2.Поиск «по смыслу»
"Способность находить и ранжировать документы, не содержащие слов из запроса, часто считают признаком искусственного интеллекта или поиска по смыслу и относят априори к преимуществам модели. Вопроса, о том, так ли это или нет мы оставим за рамками данной статьи.
Для примера опишу лишь одну, пожалуй, самую популярную модель, работающую по смыслу. В теории информационного поиска данную модель принято называть латентно-семантическим индексированием (иными словами, выявлением скрытых смыслов). Эта алгебраическая модель основана на сингулярном разложении прямоугольной матрицы, ассоциирующей слова с документами. Элементом матрицы является частотная характеристика, отражающая степень связи слова и документа, например, TF*IDF. Вместо исходной миллионно-размерной матрицы авторы метода [furnas], [deerwester] предложили использовать 50-150 «скрытых смыслов» [3] , соответствующих первым главным компонентам ее сингулярного разложения.
Сингулярным разложением действительной матрицы A размеров m*n называется всякое ее разложение вида A = USV, где U - ортогональная матрица размеров m*m, V - ортогональная матрица размеров n*n, S - диагональная матрица размеров m*n, элементы которой sij= 0, если i не равно j, и sii = si >= 0. Величины si называются сингулярными числами матрицы и равны арифметическим значениям квадратных корней из соответствующих собственных значений матрицы AAT. В англоязычной литературе сингулярное разложение принято называть SVD-разложением." (И.Сигалович)
Так вот, если я оптимизирую внутренние статические факторы под запрос сл.1+Кл.cл.+сл.2+сл.3 (данный запрос ориентирован на будущие леммы) , затем
авторассыльщиком на доски вывожу объявления в данном сочетании (загвоздка здесь: ссылочный вес не передается, а сама коллекция анкор-файлов пополняется данным сочетанием?)
если "ДА", то получается при разбавлении своей ссылочной массы анкором вида сл.1+сл.2+сл.3
будет достигаться наибольшая контрастность (слова 1,2,3 имеют минимальный вес, а сам запрос лишь подразумевается).
ОК. Сйчас багаж знаний пополню, переформулирую вопрос касательно анкор-редкости.
Если есть возможность, поделитесь материалами о влиянии различных факторов на IDFa и непосредственно по ее образовании (коллекции) в поисковой системе.
не понятно, можете ссылочкой поделиться на исходник