Так я ж писал =)
Это способ не ТС, а самый элементарный, очень грубый, но с хорошими маркерами способный справляться с некоторыми поставленными задачами, например отсеивать пустые пузамерки и некоторые фильтры на подлёте.
п.с. это не все.. это несколько из 52 (покрайней мере мне известных) с нулёвым весом.. сейчас это уже не актуально, но это самые часто встречаемые слова в базе Яндекса
Для этого нужны собственные, заранее подготовленные маркеры, сходные по внутренней оптимизации (не более 1 вхождения одного из стопслов группы) и без "стопслов" в анкорах для минимального воздействия данных составляющих . Может ли сайт с хорошими пузамерками быть третьим в 3 из 3 замерах, когда один из маркеров прогнанный по "чёрной" базе досок,каталогов ГС?
KupluSsilki, это не тема. Способ показывает не траст, а релевантность по запросам, которая включает и траст. Погрешность слишком большая (у Яндекса уже давно нет как таковых стопслов в привычном нам смысле и в поиске они учитываются наравне с обычными), но ГС исключать, зафильтрованные (я не уверен, что сайты в Ты последний без уника обладают высоким трастом) и присматриваться к сайтам выше трастовых маркеров сама то.
Это допустимая погрешность, которая будет устранена 3 запросами с разными стоп словами, т.е. "в" в двух вариантах уже не будет. Картина вполне удовлетворительная и однокласники вполне могут быть самым эффективным сайтом не только в плане траста. Если подобрать хорошие маркеры, то для хорошего параметра для автоотсетва самого самого гавна будет вполне достаточно и безусловно повод более подробно присматриваться к сайтам показавшим хорошие результаты что бы добавить их в Избранное.
Запрос выдаёт самый рулевантный из сайтов по запросу. Безусловно на это повлияют внешние и внутренние факторы, поэтому и нужно делать 3 партии запросов. Попробуйте сдвинуть вики хотя бы по одному стопслову ;) или второй сайтик.. Спорят за лидерство третий и четвёртый.. для это и потребуется установить статускво несколькими партиями стоп слов. Всё это дело грубовато покажет какой из сайтов по мнению яндекса релевантнее, а также поможет выявить ты последнего в два счёта и автоматически исключить.
Ну самый простой запрос проверить траст этот. Грубоватый конечно же, но если взять в выборку сайта 3 - 1 из которых явно не трастовый (можно например взять за основу сателит пронанный по форумам и гостевухам), второй неплохой (ЯК, ДМОЗ, жирные бэки), то можно с удовлетворительной погрешностью мерить третий сайт и на основе его позиции уже работать. Если анализируемый сайт третий - сразу в корзину, всё что в срединке - присматриваться, всё что первый - отправлять в избранное. А если в выборку взять не 3, а 5, к примеру, то вероятность более точного определения увеличивается в разы.. ну и стоп слов включить в выборку побольше безусловно потребуется или даже 3 партии стопслов (3 запроса) при выборке 4 сайта для анализа пятого. Хм ) Пошёл прикручивать и тестить.
Раньше говорило, а сейчас все ссылки стали видны в НПС. С тех времён (месяца 3-4, если не ошибаюсь) и говорят, что способов определения непота исключительно языком запросов не осталось без напрягов.
Уже нет. Но эта означает, что ссылка учитывается (может и не работает, но уже учитывается) и проиндексирована.
devzev, а если представим замкнутую сеть сайтов без входящих на них линков.. Каждый ссылается по кольцу А->Б->В->А.. на А ставим трастовую ссылочку с википедии. Очевидно что траст распределиться не равномерно. Также как сайт А не станет википедией, так же и сайт Б не станет сайтом А. Сколько сайт Б будет передавать сайту В по твоему мнению, если взять за 1 передаваемый сайту А траст от вики?
А для этого как раз и существуют это самое трастовое окно, без которого мой грубейший пример стал реальностью и можно было бы обнулять любые сайты. Простыми словами для нового сайта, да и для старого, нужно заполучать ссылки с качественных ресурсов и только после этого начинать думать о продвижении в топы. Это сейчас ни кто отрицать не станет и собственно этот метод единственный возможный для продвижения новых сайтов. Сразу бросаться в сапу - деньги на ветер.
Уже было это. Допустим у сайта траст 1.0 и на него ссылаются 10 сайтов 1.0. Тут на сайт ставят 10 ГС 0.5. Находим среднее арифметическое и у нас выходит уже траст не 1.0, а 0.75. Прошу учесть, что пример супермега грубейший и всего лишь ИМХО, но он раскрывает суть возможного отрицательного влияния от ГС. Информации о коэффициентах не обладаю, просто попытался изложить вкраце сам принцеп отрицательного влияния.
зы. уже ответили =) да ещё как )