MASe

MASe
Рейтинг
219
Регистрация
17.09.2002
Skyter:
То есть это как, к класическому пейджранку прикрутить бОльшую вероятность перехода по ссылкам по теме???

но тогда мы углубимся в споры о природе определения тематичности... и споры эти будут также громоздки...

а развивая тему - реальный траст был бы в том случае, если бы происходил некий учет кликов пользователя по этим ссылкам... (в числе прочих компонентов)... но: это легко накрутить, это хорошо для теории ВИЦа, но не очень для ТИЦа, все равно это не показатель.... но и технически не очень представляю как это может быть учтено...

или немного переформулирую оптимальную теорию - больший траст получают такие ссылки, через которые на сайт приходят... если сайт реципиент в панели вебмастера, то это не так уж сложно учитывать...

и в описанном на пару постов случае про два сайта - как раз получаем картинку, что по ссылкам на новый сайт банка все же кликают, причем достаточно активно, несмотря на то, что "уровень" донор-реципент разный... а на сайт Васи Пупкина при "равном уровне" - никто по ссылкам не переходит...

wilelf:
А если ссылка с картинки? Как в этом случае с трастом?

при рассмотрении случая, когда ссылка идет со страницы без тайтлов, мета-тегов, текста... где просто картинка без альтов и прочих атрибутов... хм...

а почему бы не предположить, что ПС не каждый раз может адекватно определить траст, и в таких случаях множитель траста выставляет равным 1, чтобы ничего не менять...

alexspb:
"как если бы поисковиков не существовало..."

вот-вот... ИМХО - самая удачная формулировка касательно поисков истоков траста, да и продвижения вообще

MASe добавил 22.01.2009 в 13:39

Skyter:
wolf, правильно ли я понимаю, что в этой теории траст-вектор применяется только к ссылочной составляющей?

как это??? для того чтобы понять - плохая ссылка или нет, надо сначала проанализировать источник ссылки... и кроме как по контенту этого сделать не удастся... поэтому контент то так или иначе должен быть задействован...

сначала появился документ (текст), а потом ссылка с него - на него... тут "курицы с яйцом" не получится - первичность очевидна

wilelf:
получается такая картина:
  • история домена (возраст, были ли наложены санкции), возможно, доменная зона
  • объем сайта и доля уникального контента
  • как вариант

  • Большой процент страниц в индексе по сравнению с имеющимися страницами на самом деле
  • хм... а это как? как ПС может сравнивать то, что ей известно, с тем что ей не известно...

  • техническая часть (движок - замечено!, доступность страниц - читай, хостинг, отсутствие применения спам-технологий)
  • соглашусь только про спам

  • частота обновления ресурса
  • вовсе нет - уникальная информация может появиться раз, и не обновляться сто лет...

  • наличие специальных кодов (счетчики, баннеры)
  • хм... зачем?! и как на "трастовость" влияет? не только "крутые" сайты не ставят на своих страницах бесплатных каунтеров, но и обычные... равно как и наоборот...

  • наименования файлов (ЧПУ)
  • ?!?! это то причем? и в чем влияние?

  • валидность кода
  • тоже нет...

    понимаете, не правильно сводить "хороший ресурс" в глазах ПС к дизайну от Лебедеву, коду по W3C, ЧПУ, и аффилированным движкам... куча трастовых сайтов есть на народе и проч. бесплатных хостах, с убогим дизайном и убогим кодом...

    Str256:
    Для этих случаев, Яндекс рекомендует использовать ноиндекс

    логично... но!!!

    это знаем мы, это знают в ПС: ноиндекс - искусственный атрибут...

    оперируем чистым хтмл, а также людьми, делающими сайты для людей, а не поисковых систем - а их мнение так или иначе должно быть учтено...

    ну а веб-два-ноль тенденции сайтов соц.сетей и блогов вообще не предполагают возможность выбирать юзеру тип ссылки и "вмешивание" в хтмл-код и его атрибуты... а такие ссылки - пожалуй, единственные на данный момент, более-менее естественные...

    вот на серче все автоматом выставляется в ноффолоу...

    Str256:
    Другое дело, что хорошесть или плохость можно оценить с той или иной степенью вероятности, отличной от 100%.

    угу... это и есть камень преткновения...

    особенно рассматривая то, что документов на сайте великое множество, ссылаются они на такое же множество сайтов (даже в пределах одного документа)...

    и отсутствие искусственного интеллекта у алгоритма...

    ведь ПС и юзер (юзабилити) - вещи разные...

    как пример... скажем - ссылки на варез или порно = плохо, ссылки на официальные сайты = хорошо...

    я пишу статью, ну о программе Адоб Фотошоп.

    в конце даю ссылку на официальный сайт производителя = Адоб

    а также информацию-предостережение о том, что в сети появился мошенник, раздающий по адресу *ссылка* нелецинзионный софт от Адоб, ни в коем случае не скачивайте его...

    имеем - юзер получил и в том и в другом случае трастовую информацию...

    ПС - сделала вывод о том, что я ссылаюсь на варез - значит я плохой...

    Prostachek:
    То есть Вы считаете, что Яндекс изначально (после первой индексации) определяет хороший сайт/документ или плохой

    в данном контексте не совсем уместное сравнение...

    ведь документ при этом (при посещении ПС) может не быть ни донором (ну нет с него ссылок, причем даже внутренних), ни реципиентом (ну не ссылается на него никто - а адрес для робота через аддурлку добавили)

    да-да... и самое главное - размер ТИЦ тоже очень важен...

    хотя ведь "главное не размеры лодки, а волнение океана"....

    MASe добавил 22.01.2009 в 12:11

    pelvis:
    Гугл - он, мой 😂

    да самое интересное - что и Яндекс тоже...

    из женщин разве только Нигма...

    а вот Яху - вообще не поймешь что... ;)

    Megamozg:
    Вот интересно тогда, чему больший приоритет отдается транслиту или переводу?

    у меня предложение -

    давайте все вместе позовем Вульфа?!

    Тимон:
    Прикольная штукенция :)

    кстати, да...

    интересненько...

    Всего: 2543