- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
по своему опыту скажу, что пока не прочувствовал никакой трастовости, явно есть фильтр ты последний, есть что-то вроде песка , я даже не заметил чтобы тематические площадки-доноры влияли на продвижение ресурсов, хотя об этом столько говорят...а непот похоже не отменили а просто спрятали...
Как будто намёк на то, что яндексоиды сотворили что-то, и теперь не могут это пояснить. Даже сами для себя.😆
Про непот они много сказали? Нет. Потому что это уже детали алгоритма. Можно ли интересно рассказать о ТрастРанке, не раскрыв детали алгоритма - я не знаю. Надеюсь, что они найдут нужные формулировки.
Что касается самого ТрастРанка - мне кажется здесь должны быть важные факторы, наличие которых однозначно определяет значение этого параметра и дополнительные (усиливающие).
Важными по моему мнению должны быть: спамность сайта (ссылочная, контентная) и история этой самой спамности; является ли сайт источником оригинального контента с учетом истории этого фактора; входящие ссылки - их количество и качество по критерию спамности и самого ТрастРанка, при чем важно может быть не просто % хороших и плохих ссылок, а их абсолютное количество (т.е. если хороших ссылок 1000, а кто-то поставил 10000 спамных из конкурентов - сайту это повредить не должно).
Дополнительными (усиливающими) факторами могут быть: наличие сайта в каталоге Яндекса и РСЯ, оценка юзабилити с точки зрения ссылочной структуры (каков тут алгоритм - сказать сложно, но Яндекс же уже хорошо умеет определять, например, тематику разделов сайта, так что почему бы не оценить математически юзабилити? ;) ); среднее время ответа сервара (очень сомнительный фактор т.к. у Яндекса может быть плохой коннект к сайту по каким-то причинам, а у 90% пользователей хороший), наличие HTTP-ошибок и т.п.
Дополнительные факторы едва ли могут быть важными факторами т.к. если сайт спамит, то так ли важно, в ЯК он или нет?
А, такие факторы, как возраст домена (если на сайте 9 лет был дорвей, а потом 1 год хороший сайт - должен ли от этого быть высоким уровень доверия? Едва ли.), уникальность IP, наличие карты сайта, тИЦ (зачем тИЦ, если есть алгоритм оценки входящих ссылок с точки зрения ТрастРанка?), данные whois (у Вебмастерова сайт лучше, потому что он не Сейперов? :) Или потому что у Оптимизаторова 1 сайт, а не 10, как у Сателличикова? 😆 ) едва ли могут быть значимыми.
история этой самой спамности; является ли сайт источником оригинального контента с учетом истории этого фактора
Это как это? Затраты машиновремени представляете себе?😮
оценка юзабилити с точки зрения ссылочной структуры (каков тут алгоритм - сказать сложно, ... так что почему бы не оценить математически юзабилити?
Вот это поясните, плиз.😆 Хорошо хоть, Маркус с Нильсеном этих слов не видят.
Яндекс же уже хорошо умеет определять, например, тематику разделов сайта
Как Вы себе это представляете, хотя бы примерно?;)
среднее время ответа сервара (очень сомнительный фактор т.к. у Яндекса может быть плохой коннект к сайту по каким-то причинам, а у 90% пользователей хороший), наличие HTTP-ошибок и т.п. А, такие факторы, как возраст домена (если на сайте 9 лет был дорвей, а потом 1 год хороший сайт - должен ли от этого быть высоким уровень доверия? Едва ли.), уникальность IP, наличие карты сайта, тИЦ (зачем тИЦ, если есть алгоритм оценки входящих ссылок с точки зрения ТрастРанка?), данные whois (у Вебмастерова сайт лучше, потому что он не Сейперов? :) Или потому что у Оптимизаторова 1 сайт, а не 10, как у Сателличикова? 😆 ) едва ли могут быть значимыми.
Вы всерьёз думаете, что Яндекс будет серьёзно копаться в этих параметрах?
(GoodWin) добавил 05.02.2008 в 10:45
На самом деле 90% или даже более проблем индекса - это спамерное ссылочное, которое производится с помощью покупных ссылок, зеркал, сателлитов и каталогов.
А всё остальное...
Даже если на всех страницах сайта будет по 200 раз на каждой просто написано "Вы все уроды", индекс от этого не пострадает.
Каков тогда смысл анализа возраста (периода от первого попадания в индекс) для добропорядочного проекта, для которого "множество остальных факторов с легкостью перевесят молодой возраст домена и сделают сайту высокий"?
Или, наоборот, каков смысл анализа того же самого возраста, если множество обратных дурных фактов всё равно отправят сайт на чудное побережье Охотского моря?
А зачем перед постройкой дома проверяют почву? Ведь если строить на добротной почве, то в 99,9% ничего опасного не произойдет? Правильно ради оставшейся доли процента.
Я вообще в диком восторге от выражений типа "Да, этот показатель есть, но как он выводится, - об этом я не имею никакого понятия и сформулировать не могу. Но он есть".😆
И будет "есть", как говорится.
Возраст был приведен как один из множества возможных вариантов. Почему возможных? Да потому что если он там есть, он там наверняка не один.
Слово "если" не проглядели? Еще можно на мой ник посмотреть ))
Или: "Яндекс доверяет/не доверяет". Читаем: "Программа доверяет/не доверяет".
Ребята, хватит уже приписывать обыкновенной железке всякого рода человеческие возможности.
Видим: программа не доверяет. Читаем: программа проанализировала сайт по неизвестному нам пока алгоритму и получила на выходе низкое/отрицательное значение трастовости.
Товарищи, мы вообще сейчас имеем дело, по большому счёту, с совсем другим Рунетом, - выкинут чуть ли не миллиард страниц. Ссылочное изменилось неимоверно. Чего сейчас гадать? Будет более-менее вменяемое обновление индекса, тогда и можно что-то анализировать.
Я слежу за изменениями не только по своим полутора проектам которые двигаю по двум с половиной запросам. Анализировать изменения вообще можно не только по выдаче по ключевикам, честное слово. И дело точно не в зачищенной базе, 20-го декабря появился какой-то новый фактор. Если сможете опровергнуть - я буду счастлив. Я не знаю как его назвать, и не против пока называть Трастовостью, благо вроде похоже по эффектам.
В разных отраслях знаний есть очень хорошие понятия необходимости и достаточности свойств и признаков того или иного явления или процесса.
Если проводить аналогию с теми областями, до необходимости и достаточности еще очень далеко.
Может у кого-то все уже есть, но я как наверное и большинство собравшихся в этой ветке, пока не могу провести эксперимент.
По-моему разумно на данном этапе обменяться предположениями, они в той области звались гипотезами. Обсудить, часть отмести, а часть потом проверить экспериментально.
О необходимости и достаточности можно говорить когда есть теорема подтвержденная экспериментом. Чтобы провести эксперимент сначала нужна гипотеза. Именно их сейчас собравшиеся и выдвигают.
Теперь по теме:
Еще одна гипотеза. Факторы которые влияют на трастранк можно условно разделить на внешние и внутренние, так как фактически всю информацию доступную поисковой системе можно условно разделить на внутреннюю относительно сайта и внешнюю.
Яндексоиды во избежание появления бирж плохих ссылок могли сделать так, что только за внешние отрицательные траст-факторы сайту ничего не будет.
Может быть они просто отказались от старой системы автоматического наложения санкций и заменили ее на трастранк? Больше нету фильтра "ты последний", есть так сказать фильтры "вы первые", "вы сразу за ними", "а вот вам придется подождать", и так далее по убыванию трастовости?
20-го декабря появился какой-то новый фактор.
Я Вам и Вашему ИМХе скажу какой фактор появился: внеземной. Да-да, внеземной фактор.😆 Или бубен. Прямо в кабинете у Садовского.
Яндексоиды "разобрались" со всеми сомнительными страницами. С помощью всего того, что сумели проанализировать в последние месяцы. Если они где-то дали маху и ошиблись, перегнули, - то последует либо откат какой-то, либо упяченная часть индекса будет переработана заново и её какая-то доля непременно обратно вернётся в поле ссылочного ранжирования. А если нет (они считают что правы и безгрешны), то буквально начинается новая жизнь для всего поиска в Рунете. Потому что среда качественно изменилась (в плюс или минус - весьма относительный вопрос), и для неё нужны новые правила, новые алгоритмы, логические цепочки, коэффициенты, граничные и целевые условия.
Всё же не думаю, что существует какой-то "отрицательный траст", отрицательное ссылочное и прочие минусовые вИЦы: введение такого параметра позволит накладывать санкции за внешние факторы - ведь заспамить ресурс (и ссылаться с него на конкурентов) значительно легче, чем создать и поддерживать на плаву белый сайт.
Скорее, ссылки с "нетрастовых" сайтов имеют исчезающе малый положительный вес (хотя и показываются в выдаче, для всяких непот-анализаторов, наравне с весомыми ресурсами ;)). При таком варианте, ссылки хоть с тысяч FFA и недосателлитов никак не изменят ссылочной картины.
Скорее, ссылки с "нетрастовых" сайтов имеют исчезающе малый положительный вес (хотя и показываются в выдаче, для всяких непот-анализаторов, наравне с весомыми ресурсами ;)). При таком варианте, ссылки хоть с тысяч FFA и недосателлитов никак не изменят ссылочной картины.
Но если они действительно имеют исчезающе малый положительный вес получается следующая странность: новую проблему можно решить, тупо докупив ссылок в биржах без особого разбора. Надо так понимать что какое-то количество трастовых сайтов в биржах участвуют. Тому подтверждение сайты которые продвигались только биржами и остались на плаву по конкурентным запросам. И покупая все без разбора можно набрать много траста. Я думаю увеличение бюджетов - это не то чего должны добиваться яндексоиды. Хотя Black Hat SEO должны пострадать при предлагаемом вами варианте, и это как раз могло и быть их основной целью.
Возможно на эффект со ссылки влияет и траст донора и траст получателя. ☝
То есть при низком собственном трасте какие ссылки не покупай, эффекта будет мало.
новую проблему можно решить, тупо докупив ссылок в биржах без особого разбора.
Вопрос только в количестве. ;)
отрицательная трастовость это фантазия☝
Давайте РАССУЖДАТЬ логично:
если какой-то сайт настолько проштрафится, что ему БУДЕТ ЛОГИЧНО присвоить ОТРИЦАТЕЛЬНЫЙ ТРАСТ РАНК - его логично будет выкинуть из выдачи и соответственно не учитывать его влияния на сайты на которые он ссылается
другими словами отрицательный траст ранк это веб.два.нолевский бан, только 100% автоматический
передаваться по ссылке может только положительный траст ранк, иначе кучка обиженных на мир могла бы за пару часов накрутить отрицательный траст ранк половине интернета
ЗЫ кто не согласен - рассуждайте логично, а не в репу
Вот несколько пунктов, неоднократно встречавшихся на форуме и заслуживающих внимания.
На Яндекс Trust Rank могут влиять:
6. Наличие сайта в Яке (?).
Коллеги, поделитесь мнением, кто что думает по этому поводу.
наличие ссылки в ЯК равносильно ссылке с авторитетного сайта