- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Противоречит хотя бы потому, что учет стоп-слов резко увеличивает вычислительную нагрузку. И по сути не несет в себе никакой логики, т.к. стоп-слова не несут смысловой нагрузки.
Я не претендую на ЛОГИКУ ЯНДЕКСА. Я замерил, что ЯНДЕКС ДЕЛАЕТ, а вопрос "почему", это уже к Яндексу.
Увеличение нагрузки введение стоп слов не несет, стоп слова Яндекс очень давно индексирует наравне с обычными (+поставить и стоп слово становится не стопсловом в запросе).
Стоп слова несут статистическую информацию об объеме текста.
Корректность эксперимента, засучите ручки и проверьте каждую строчку и каждый запрос, все выложено, что делалось.
Ваши "учет объема текста", "весовых коэффициентов расположения предлогов относительно начала страницы" и другие "перлы" есть не что иное как заблуждения, давно выявленные экспериментально как не соответствующие нынешнему состоянию дел. Миныча надо почаще читать, самому эксперименты ставить, а не верить слухам и домыслам.
По поводу "коэффициентов" спорить не буду, хотя Вы невнимательно читаете, я же говорил не о ключевиках, а именно о том, с чем Вы экспериментировали о "стоп-словах", поэтому "заблуждения" здесь не при чем. Т.е о том, что условия эксперимента некорректны, например, объем текста на тестовых страницах разный. Почему, кстати, было не сделать одинаковый?
Никакой тени на Яндекс это не бросает. И никаких "для людей" роботов у них нет. Есть обычный ручной бан и навечно. Это тоже немало.
А вот это крайне спорно. Потому как и роботы у них есть и бан не навечно. И стремятся они именно к автоматизации процесса.
Рассмотрел конкурентов и под таким углом. Неа, есть и больше чем у меня и меньше. Кто нибуть ещё смотрел? :)
Ну так ведь это не единственный фактор ранжирования :)
ХренРедькиНеСлаще, встречный вопрос, есть уверенность, что эти изменения произошли именно с 10 ноября? Может это уже давно было?
именно о том, с чем Вы экспериментировали о "стоп-словах", поэтому "заблуждения" здесь не при чем. Т.е о том, что условия эксперимента некорректны, например, объем текста на тестовых страницах разный. Почему, кстати, было не сделать одинаковый?
Anryk, я говорю в том числе и о стоп словах и о предлогах и о союзах. Сотни и даже тысячи опытов уже сделаны (в этом топике ДЛЯ ПРИМЕРА три страницы) и с одинаковым числом слов/предлогов и с разным. Я потому так уверенно и говорю, потому что сам это делал сотни раз. И это именно мифы, что Яндекс такой умный, с искусственным интеллектом почти.
Даже то, что Яндекс озвучивает публично, в основном в Большом Яндексе не используется, ввиду массы спама и поискового шума, для которого идеальные алгоритмы слабо подходят. Не до жиру.
ХренРедькиНеСлаще, встречный вопрос, есть уверенность, что эти изменения произошли именно с 10 ноября? Может это уже давно было?
Насчет 11 не уверен, но недавно было ИНАЧЕ.
Мы в основном следили за числом самого частого слова без стоп слов. Например ru,www,http не были стопсловами. "И", "в" были неучитываемыми в подсчете самого частого слова.
Хотя можно поднять старые данные, но не хочется на это время терять.
ХренРедькиНеСлаще, и что, объем страницы не учитывается? т.е. получается с очень большой вероятностью, что статья на 10000 знаков про попугаев будем менее релевантна, чем новость про этих же попугаев?
И это именно мифы, что Яндекс такой умный, с искусственным интеллектом почти.
Я никогда и не говорил, что Яндекс сравним с ИИ. ( Я вообще не верю, что ИИ можно реализовать на текущей технической базе и использующимися методами. Будующее за нейросетями...) Однако и упрощать, на мой взгляд не стоит.
я говорю в том числе и о стоп словах и о предлогах и о союзах. Сотни и даже тысячи опытов уже сделаны (в этом топике ДЛЯ ПРИМЕРА три страницы) и с одинаковым числом слов/предлогов и с разным. Я потому так уверенно и говорю, потому что сам это делал сотни раз.
Сейчас, получается так, Вы проводите эксперимент, пренебрегая какими-то параметрами, потому что ранее Вы уже выяснили на основе других экспериментов, что эти параметры влияют на выдачу таким-то образом, т.е. с большими допусками и в отрыве от времени,(алгоритм же меняется?) Что приводит к получению крайне интересных, но, возможно, неверных результатов и порождению новых "заблуждений", коих, тут я с Вами согласен, и так хватает.
Даже то, что Яндекс озвучивает публично, в основном в Большом Яндексе не используется, ввиду массы спама и поискового шума, для которого идеальные алгоритмы слабо подходят. Не до жиру.
Ссылка, к сожалению, не работает. Однако, позиция Яндекса известна, потому как озвучивалась неоднократно, в том числе, и на этом форуме.
За исследование, конечно, респект:)
т.е. получается с очень большой вероятностью, что статья на 10000 знаков про попугаев будем менее релевантна, чем новость про этих же попугаев?
Если методом дедукции - то беря данные ХРНС как отправные и исправные - именно так, Коль. Скорее всего ноги отсюда же растут и у падения многочисленных анкорных зюзиков.
пока так и получается по многим НЧ с которыми я работаю...