- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Гм, любопытно. О том, что чем больше словопозиций, тем лучше, можно догадаться из фраз
вес документа по отношению к запросу как сумму контрастностей слов запроса в документе
и
Наконец, веса словопозиций, взвешенные по сходству их полного контекста, «собираются» обратно и образуют вес документа.
на http://company.yandex.ru/articles/romip2004.xml
А если предположить, что нормировка tf происходит не по длине документа, а по максимальной tf, то действительно получается, что для того, чтобы получить максимум суммы контрастностей, максимизировать надо эту нормировку, т.е. минимизировать разницу между tf термина и tfmax максимально частотного термина, т.к. значение idf для конкретного термина - величина постоянная в том смысле, что мы на нее мы на нее повлиять не можем. Выходит, всё выглядит логичным, коллега. :)
Было интересно читать где-то до 3 страницы. Затем пошло всё не в тему.
Если составлять фак на эту тему, то нужно выбрать какой поисковик имеем ввиду. А насчёт плотность ключевых слов приведу пример.
Есть сайт. На нём был сделал раздел, имеющий 11 ключевых слов(средняя плотность получается где-то 2-3%). Я совершенно забыл про него. Даже как-то и не думал о нём. 3 месяца назад смотрю логи, а он на 3 месте по среднечастотному запросу англоязычной gambling в yahoo.com. Хотя ниодной ссылки с ключевиком не стоит на это раздел(даже внутренней). Правда после нынешнего апдейта yahoo конечно сайта скатился где-то на 3-4 десяток(я им и не занимался), но сам факт,что только одными внутренними факторами(даже не сайта, а одной странички. Ccылок внутренних с ключевиком тоже ведь не было) можно было выбится в топ3 наводит на размышления.
Сообщение от webcatплотность ключевого слова в документе не должна превышать 5-7 % на 1000 знаков
как это надо понимать?
вариант1: число знаков ключевого слова в документе не должно превышать 5-7%
вариант2: число знаков ключевого слова в документе не должно превышать 5-7% если документ не более 1000 знаков
вариант3: число знаков ключевого слова в документе не должно превышать 5-7% если документ не менее 1000 знаков
Описка. Надо читать на 1000 слов
wolf, ХренРедькиНеСлаще
обьясните пожалуйста тогда как следующий пассаж увязсть с вышесказанным 😕
Если при ранжировании Яндекс использует классический для IR логарифм обратной частоты, то при вычислении суммы голосов в кворуме применяется степенная функция с показателем между квадратным и кубическим корнем.
Отличия состоят в том, что «вариант с корнем» больше ориентирован на учет "тяжелых", "редких", "новых" слов, пусть и без полного набора соседей, тогда как логарифм тяготеет к максимальному возможному количеству слов в пассаже независимо от их тяжести.
Было интересно читать где-то до 3 страницы. Затем пошло всё не в тему.
Это Вольф топик испортил, мог бы его нафиг с глаз долой убрать. :D
сам факт,что только одными внутренними факторами(даже не сайта, а одной странички. Ccылок внутренних с ключевиком тоже ведь не было) можно было выбится в топ3 наводит на размышления.
andrew-rostov, если получилось влезть в топ3, надо не размышлять (без аргументации), а капитализировать свой опыт.
в свое время случайно попал в ТОП10 по среднечастотнику. Повторил структуру текста для других страниц: такое же количество слов/ключевиков, ключевики располагаются примерно на тех же местах, с точностью до предложения и т.п. Стал проходить в ТОП почти автоматом.
Применил ту же структуру на другом сайте - никакого результата.
Пришел к выводу, что оптимальная плотность зависит от движка (кодинга) и хостера (а внешние ссылки перешибут любую плотность).
Документы сначала отбираются (входят в кворум), а потом ранжируются.
Обычный поиск и поиск похожих документов различаются по учету весов слов и "полноте" запроса в найденных пассажах. :)
Прошу более подробно пояснить
обьясните пожалуйста тогда как следующий пассаж увязсть с вышесказанным
Всё нормально увязывается. "Тяжесть" отдельных терминов играет роль в многословных запросах. Мы же рассматривали идеальный случай - однословный запрос, который никак ехидно не переколдовывается. Но даже в идеальном случае оказалось, что понятия абсолютной оптимальной плотности в виде некоего числового значения не существует. Что уж говорить за остальные...
Применил ту же структуру на другом сайте - никакого результата.
Пришел к выводу, что оптимальная плотность зависит от движка (кодинга) и хостера.
На основании тех результатов, что у Вас были, такой вывод делать некорректно.
Я вообще удивляюсь, как народ бодро делает мощные выводы на основании спорадических наблюдений за двумя-тремя сайтами.
wolf, pro-maker спасибо за адекватные ответы.
ЗЫ: понравилось выражение "ехидно не переколдовывается" :)