kotofeich

kotofeich
Рейтинг
28
Регистрация
25.03.2009
Должность
Web-coder
Так мы здесь "трастовостью меряемся" или позициями в выдаче? Так уже вроде привели примеры, когда сайты из ТОПов конкурентных тематик за ГС сходили...

А к чему тогда была фраза?:

и никто кроме него этот сайт не посещает и соответственно ссылок на него нет

Хотя допер (через пару мин), и сам себе отвечу - что ты имели введу целевую посещаемость заинтересованных пользователей, у которых вероятность процитировать что-нить максимальна.

А на блоге как часто обновляетесь? Потом опять же, если на первый сайт ссылок достаточно (ну штук 200 хотя бы), то это достаточный повод переодически на этот сайт заглядывать. Ну а далее сверка контрольных сумм и новая индексация сайта - как результат - робот задерживается в гостях. Во втором случае (если обновления не часты и не помногу), то и задерживаться не на чем.... Т.е. складываются два фактора.

На первый сайт ссылок 50, тиц 50. В выдаче по множеству СЧ. Прокачивался покупными ссылками моей тематики. Думаю 50 это ведь слабоватая причина для того чтобы робот лишний раз наведался по ссылочному фактору.

На втором сайте обновления раз в неделю. Иногда два раза.

Вообщем думаю тут роль играют не только колличество ссылок и частота обновления контента.


Кстати опять же, отобрать скриптом штук 20 с трастовых (по скрипту) сайтов и штук 20 с ГС и посмотреть какие быстрее проиндексируются...

Уже описал результаты более глобального эксперимента для 1000 ссылок:)


Это в рублях. Если стоимость утраивает - в личку.

Неее) Цену прилично загнул:) Я лучше куплю меньше, но по рыночной цене - 30р за ip.

Не забываете только, что Я делит на группы по частоте обновления контента, о чем они сами и говорили.
Есть саты индексируемые каждый час, а есть через 8 часов. Ну и по нисходящей.
Имхо из группы в группу подвижка идет автоматически, как вверх, так и в низ.

Жалко что мы можем узнать о yal параметре только в ап выдачи(

Sterh:
А давайте вернемся к азбуке. Какие у робота могут быть "основания", что бы он чаще посещал сайт?

Азбука это конечно хорошо, а еще Ашманова можно почитать на ночь, чтобы точно уснуть=))

Шучу конечно, дальше серьезно.:)

Sterh:

1) обновление контента
2) внешние ссылки на сайт (особенно новые)

Во первых, на очень хорошем сайте, контент может не меняться годами. Например кто-то написал интересную книгу, выложил её в сеть и "забыл". Тем не менее, книга оказалась настолько хороша, что на неё постоянно появляются новые ссылки.
И наоборот. Пишет школьник 3-а класса села "Заветы и наветы", и никто кроме него этот сайт не посещает и соответственно ссылок на него нет.

Вопрос: какой из этих сайтов более "трастовый"?

Давай тогда уж брать не "хорошую книгу", которая вылазит по НЧ, а конкурентную тематику. Если школьнег из села кукуево будет штопать статьи, по запросам книги, как работает генератор анкоров, то даже ссылочная масса наращиваемая "хорошей книгой" не особо поможет. Это ИМХО конечно:)

Sterh:

... ладно, оставим лирику... Вобщем погоняв несколько сайтов скриптом заметил такую закономерность - чем чаще обновляются ссылки, ведущие на сайт - тем он "трастовие". Аккуратные, чистые, но заброшенные СДЛ, скрипт определил как ГС. Сайт не продвигаемые в данный момент, но имеющие достаточное количество бэков (поводов наведаться роботу) - как средней трастовости. Ну а сайты с большим количеством регулярно обновляемых ссылок - как сайты с высоким трастом.

У меня много фактов наоборот.Пример - сайт из яка, ссылки последний раз покупались в 2008г, на него больше никто не ссылается, но каждый день на нем публикуются уникальные статьи копирайтеров, скрипт посчитал как СДЛ с запредельной трастовостью.

На мой блог еженедельно докупаю по 50 ссылок. При этом он считается СДЛ с мизерной трастовостью.

Мое имхо: возмите с десяток сайтов, определенных как ГС. Начните наращивать на них ссылки и посмотрите, как будут меняться показания скрипта.

Есть предположение хотя бы сколько бэков надо нарастить?

Sterh:

P.S. опять же имхо: для отбора доноров скрипт не годиться.

Если честно я в штопоре. Других вариаций автоматического отбора сайтов я пока не вижу.

именно так, лучше цифрой, ну и если сможете еще и прогнозируемый срок обхода конкретной страницы, таким бы я думаю многие пользовались.

Для тех кому интересно - вот случайный скриншот с заголовками таблиц того как для меня выглядят все биржи:

Конечно у меня свои фильтры и прочии фичи для оценки.

P.S.: траст - условное понятие, своего рода доверие поисковой машины к сайту и каждый трактует ее в своем понимании, это своего рода доверие к сайту и оно тем выше, чем меньше поисковые алгоритмы могут выявить элементов накрутки (поискового спама) и наложить на вас фильтров.

К сожалению я даже не представляю как выявить большинство фильтров. Не сложная задача определить фильтр "ты последний", или выявить пессимизацию блока с запредельным колличеством ссылок, но мы не знаем как определить все фильтры, и не знаем сколько их. Поэтому я и взял параметр хоть как-то учитывающий все остальные.

а контент по вашему там часто ункальный?
кстати многие сообщения с блогов в индексе уже через несколько минут (при включенном пинговании)

В блого-индексе да, а в основной выдаче нет. Контент коненчно не уникальный. Легко определить процент дублируемых пассажей, даже при условии неплохой синомизации.

Если по делу - то лучше пусть он пишет что он оценивает и давать этому другие названия. А то трастовость тут вообще ни при чем. Аут полный.

Каждый конечно называет как хочет. Но поскольку нет однозначного ответа- что такое трастовость, то мой ответ меня устраивает.

У меня. До 5.000 рупий за подсеть из 256 адресов, правда.

Блиин, давай в рублях а не в индусской валюте.


Пока не пришёл Кузьмин - весьма общее и неоднозначное утверждение, только из-за количества неучтённых факторов (начиная от тематики).

Каким образом ты хочешь учитывать тематику, если до сих пор нет твердых подтверждений ее существования для не ЯК сайта?:) У меня есть список id всех тематик, и я легко могу манипулировать им в выдаче, но он ничем не помогает для обычных сайтов.

Ну я имел ввиду СМИ. Что ТС имеет ввиду не траст это и ежу понятно. Но какая разница как это называть. Если чёткого определения траста не существует и у всех своя теория. Моя не лучше этой. Я её помнится высказывал, её почти никто не поддержал, сейчас пост искать уже не буду.

Факторов много существует, в том числе и ссылочных, временных и т.п. Вы думаете на сплоги много внешних ссылок стоит? Причём с очень широким диапазоном? Число переходов на сайт из поиска тоже влияет, по моей теории по крайней мере точно

А что была за теория?:) Ну хоть примерно расскажи. Свои сплоги я продвигаю на равне с теми, что считаю СДЛ, и линкбэков хватает.

Str256:
В принципе, робот часто пасётся на трастовых сайтах, с этим я согласен. Далее, как вы сами заметили ваш скрипт преимущественно определяет СДЛ, если сайт имеет много тысяч страниц в индексе. В классической теории по развитию СДЛ всё правильно. Но также существуют ГС огромного размера. А СДЛ есть маленького. Так что - лучше параметр скорости индексации использовать совместно и с другими факторами, а не опираться только на него.

В теории я согласен. Вы все сказали соответственно логики. Но как объяснить что яндекс плохо пасется на сплогах с тысячами страниц в индексе, которые ежедневно обновляют свой контент?😕

_Владимир_:
kotofeich, так вам дружно все и намекают, что вероятность того чтоссылка проиндексируется и скорее всего сработает напрямую связана с частотой переиндексации, в этом плане сервис может быть полезным.

однако то, что сейчас выдает скрипт, какой это сайт СДЛ или ГС, делает его игрушкой для развлечения, поскольку оптимизатору пофиг на то, какой сайт его продвинет в выдаче, главное чтобы ссылка сработала.

Спасибо за хороший ответ:) Я выбрал слова СДЛ и ГС, потому что они с высокой вероятностью совпали для моих площадок (ну и для покупных). Сайты, где я реально почти ежедневно работаю, показали мне ответ СДЛ, сайты которые годами висят и продвигаются в выдаче ссылочной массой дали ответ ГС.

Конечно я мог ошибится. Для этого я и создал этот топик, чтобы выяснить насколько у народа есть совпадения с моей теорией.

А как все-таки насчет того, чтобы приравнять слово трастовость к колличеству времени проведенному роботу яндекса на сайте?

Предлагаете все-таки убрать абстрактное разграничение ГС и СДЛ определяемое скриптом, и написать фразы про то как яндекс любит посещать площадку?

Ну предложили вы, мы и обсуждаем эту теорию, я с таким же успехом могу предложить принять за ед. измерения кол-во исходящих ссылок( куда они ведут ), кол-во входящих ссылок ( откуда они идут) и создать топик, тогда вы мне будете вопросы задавать

respect, хороший ответ:) Кол-во исходящих ссылок и кол-во входящих и их качество это конечно хорошо. В этом тоже есть истина. Только думаю мой фактор зависит от них, и учитывает их в какой-то мере.

MASTAKILLA:
По вашим словам, чем чаще робот на сайте, тем выше трастовость.
Тогда получается, обновляем сайт каждый день, получаем трастовую площадку?:)
Мне кажется это всего лишь один пунктик, для уровня доверия для сайта из многочисленных пунктов.

Расскажи мне всезнающий оптимизатор, что тогда такое трастовость яндекса?:) Я предположил принять за эту величину то, как часто находится робот яндекса на анализируемом сайте.

kotofeich, - мне вот интересно ЗАЧЕМ ? было создавать клона чтобы запостить эту темку ?

Клона чего, если не секрет? Я не знаком с подобным сервисом.

Сообщение от kotofeich
Где я найду столько проксиков?)

Это как раз не проблема.

Просвяти где искать? Я долго бился. Если можешь еще и рабочий скрипт работы через сокеты с ними скинуть если есть.

если не сложно, гляньте сколько и какие из этих 158 есть в вебмастере

Пардон, сначала неправильно понял вопрос=) Подумал, сколько из этих сайтов, продающих ссылки, добавлены в вебмастер:) В индексе 156 ссылок с различных сайтов. 2 ссылки неверно определились моим скриптом, потому что на этих сайтах были словосочетания совпадающие с моим анкором. Эти ссылки были с ГС.

P.S. Чтобы 10 раз не отвечать пишу, что щас скрипт работает по адресу http://94.41.45.253

kotofeich добавил 26.03.2009 в 23:40

Дрозофила:
kotofeich, Глянул это дело

Завтра с трезвой головой буду думать уже

На трезвую голову думать вредно🍻

если не сложно, гляньте сколько и какие из этих 158 есть в вебмастере

В вебмастере яндекса??😕 Не подскажешь как?

ыыыы мой дор - опредилился как СДЛ ыыы

Ну доры яндекс наверняка очень любит) Жаль что временно)

Сегодня это работать будет?

Работает сейчас в локале по ip http://94.41.45.253

kotofeich добавил 26.03.2009 в 23:23

Str256:
1000 ссылок. 110 средних, 50 низких, 10 высоких. 830 ГС.
Проиндексировались: 158х0,78 = 123 средних. 158х0,12 = 19 низких. 158х0,02 = 3 высоких. И 14ГС.

Так получается, что из 10 сайтов с высогой трастовостью у вас проиндексировалось только 3 ссылки из 10 - разве это хороший результат? А насчёт средних вообще не понятно. Как могли проиндексироваться 123 если их было всего 110.

Скорость индексации не определяет трастовость. Вернее не только она. Скорость индексации также и от уровня вложенности например сильно зависит.

Предполагаю, что сайты с высокой трастовостью имеют слишком много страниц.

Для всех ссылок уровень вложенности 3. BC до 2.

Str256:
Какие остальные? 158-158(0,78+0,12+0,2)= 13. Ну и что, что определились как ГС - всё равно ведь проиндексировались.

Привожу полную статистику. Из 1000 ссылок - 11% ссылки со средней трастовостью, 5% с низкой и 1% с высокой. Остальные ГС. Для кого-то нормально, что ГС проиндексировались, а для меня нужные точные цифры того, что вероятность индексации ссылки максимальна.

sokol_jack:
Не успел я написать :)
Именно так. "Пасучесть" бота яшки на сайте никоим образом не определяет его трастовость. То, что контент меняется\добавляется - да. Но делать вывод о том, что "все сайты, на которых меняется контент - СДЛ" - неправильно. Как и "если контент не менялся долгое время, то это 100% ГС"...

У меня почти все сплоги имеющие по 10 фидов, и обновляющиеся в кроне ежедневно определились как ГС.

Всего: 162