- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Еще один вопрос назрел, относительно окна: по Вашей теории диапозон "воспринимаемой трастовости" донора для всех сайтов один, или для более трастовых он может быть шире?! То есть может ли быть для сателлита с трастом 10 такого графика (с диапозоном в 10 шагов):
|_____|_____|_____|_________________________|
0........5-----10----15.......................................40
а для wikipedia, положим, с трастом 40 такой график (диапазон 20):
|_____________________|_____________________|
0.................................20----------------------40
Трастовое окно может быть любым.
В идеале, можно даже построить модели в котором окна нет или окно равно всей линейке.
Но сомневаюсь, что на практике такое хоть где-то встречается.
devzev добавил 18.01.2009 в 00:04
Еще осенью ставил эксперименты по проверке доноров на "непот".. В итоге, походу, получилось. Из 200 доноров в сапе нашлось 4 реально хороших. Через пару недель остался всего один... Был сделан вывод, что все это, конечно, здорово, но времени и денег на эксперимент ушло больше, чем пользы от этого. (да и о точности сложно говорить, малая выборка). Но для проверки требовались вполне конкретные ссылки...
Вот интересно, devzev, раз уж Вы смогли определить хороших доноров.. Вы можете проверить любой сайт? Скажем, есть сайт, с 10-ю внешними на главной, все ссылки вида "офисная мебель" (не уникальны, стандартны и конкурентны, других ссылок нет, но страниц на сайте много). Вы сможете проверить траст подобного сайта за "0,1 секунды" (ну, хоть за сутки, без длительных ожиданий)?
Я примерно догадываюсь о вашем методе. ;)
Для определения траста мне не нужны ссылки вообще.
Кстати, для определения "непота" тоже не нужно.
Яндекс на некоторые страницы накладывает некоторый фильтр, который...
Но это совсем другая история. :) Я и так многое рассказал уже.
devzev добавил 18.01.2009 в 00:05
Я думаю да, у меня же вопрос немного другой к devzev.
Сайт совсем без внешних ссылок (без единой) вы можете определить на предмет хорошего/плохого донора?
да...........
devzev, ты не мог бы повторить что не удалось раскусить после эксперимента?
Это не стеб - просто если ты так копнул:), то хотелось бы понять что не подвластное анализу осталось?
И еще, по теории в идеале лучшими стартовыми беками для "раскрутки" ГС (а вдруг понадобится его раскрутить?) будут беки других ГС его же ниши (окна) - так?
Еще хочу понять - так сколько сайтов учавствовало в эксперименте - 2 или более? В одном месте написано 2, в другом "как новые так и старые", то есть уже множественное число скорее больше чем 2
так получается все коммерческие сайты отбрасываем + интернет магазины и прочие в топку (как я и поступаю) :) Берем в основном сайты не коммерческой направленности - музеев, хобби и прочие? :)
так получается все коммерческие сайты отбрасываем + интернет магазины и прочие в топку (как я и поступаю) :) Берем в основном сайты не коммерческой направленности - музеев, хобби и прочие? :)
Имхо. Не факт...
Где-то полгода назад я делал запрос к яше из 10-ти сайтов. 7 были клиентские, т.е вероятность фильтра стремилась к нулю... 3 брал для проверки. В результате, к моему удивлению, сайты ранжировались не по тицу и крутые проекты, в том числе сайты зоопарков, про писателей (крупные сайты) были в этой выборке далеко не вверху...занимали позиции ближе к 10-м местам (но были и в топ 1 сайты для проверки)
К, сожалению, тогда времени не было, чтобы поставить эксперимент, а формулу я забыл. Щас пытаюсь вспомнить, но не получается так, как раньше:(
По той выдаче можно было составить формулу и расставлять коэффициенты...
Имхо. Возможно это и бред...не проверял
Еще осенью ставил эксперименты по проверке доноров на "непот".. В итоге, походу, получилось. Из 200 доноров в сапе нашлось 4 реально хороших.
200/4, хороший - каждый 50ый донор, вероятность "попадания", при покупке "наобум" (здесь оговоримся, что определенная методика подбора в рамках стандартного интерфейса и оценке "на глаз" всё-таки имеется, но не более того) - 2%. То бишь, если закупить, например, 10 ссылок, то вероятность нахождения среди них хотя бы одной хорошей - 20%.
И ведь так постоянно - купишь 10 ссылок (или менее) для какого-нибудь сч/нч - и апнутся позиции. Видимо, везёт, как утопленнику. И, похоже, не только мне.
Или тут под "реально хорошими" понимаются ссылки, которые передают например вес без каких-то пенальти? А если ссылка передаёт вес не 100%, а 95%, то она уже не "реально хорошая"?
Так ли страшен чёрт, как его малюют?
Если же взять, например, утверждение Wolf'а о том, что в тех же биржах ссылок сейчас реально 10-20% максимум рабочих доноров (проскакивало где-то на форуме не так давно), а не 2%, то всё равно получается, что 80-90% доноров плохих.
Значит, большинство оптимизаторов, не владеющих "секретом траста", ап за апом наблюдали бы "уменьшение траста" за счёт всё увеличивающейся массы плохих сайтов* -> падение сайтов (кто при закупке ссылок применял "близкие" теории, тот меньше, кто "далекие" - тот больше).
* upd. да, кстати. Даже если ссылки дополнительно не закупаются, то доноры скорее будут терять вес и траст, чем набирать. Многие периодически могут наблюдать в поле "ВС" у донора число, вдвое превышающее не так давно введённое "ожидаемое максим. кол-во внешних".
Но падали бы.
Опять же, основа описываемых алгоритмов "траста" по сути, лежит в принципе "хороший ссылается на хорошего, плохой - на плохого". Но "этот принцип в России не работает" (опять, кстати, цитата Wolf'а, насколько я помню).
ТС писал, что эксперимент проводился на выборке из 2 сайтов. /ru/forum/comment/4211992
По сути - даже на одном. Любое внешнее колебание - где-то выпал хороший донор, у ссылки на подопытный сайт появилось слишком много соседей, страница с ссылкой ушла с УВ2 на УВ5 - могло вызвать вылет из топа. (опять же, что за топ? вылет с 10го на 11ое место? с 1го на 11ое?).
Можно вообще выдвинуть теорию о том, что это результат того, что автор разместил слишком много ссылок с одинаковым точным вхождением (он сам сказал, что вхождение было точным).
Фильтровать по принципу "нормального разброса анкоров", наверное, гораздо проще с технической точки зрения, чем по принципу "нормального разброса трастов".
Выборки нет, данных нет, обсуждение вокруг да около.
Значит, большинство оптимизаторов, не владеющих "секретом траста", ап за апом наблюдали бы "уменьшение траста" за счёт всё увеличивающейся массы плохих сайтов* -> падение сайтов (кто при закупке ссылок применял "близкие" теории, тот меньше, кто "далекие" - тот больше).
Я уже пытался узнать - каким образом теория объясняет то, что оптимизаторам удается вывести сайты в топ по ВК и ВЧ, где счет ссылок идет на тысячи и десятки тысяч. Однако ответа нет.
devzev, ты не мог бы повторить что не удалось раскусить после эксперимента?
Это не стеб - просто если ты так копнул:), то хотелось бы понять что не подвластное анализу осталось?
И еще, по теории в идеале лучшими стартовыми беками для "раскрутки" ГС (а вдруг понадобится его раскрутить?) будут беки других ГС его же ниши (окна) - так?
Еще хочу понять - так сколько сайтов учавствовало в эксперименте - 2 или более? В одном месте написано 2, в другом "как новые так и старые", то есть уже множественное число скорее больше чем 2
Удалось узнать многое. Кое что я здесь просто не рассказал. Есть один ньюанс из-за которого некоторые здесь придрались. Там я плавно ушёл от ответа только из-за того, что не хочу пока выводить ту тему в массы. А она довольно важна.
По передаче траста в эксперименте участвовало много сайтов. По поднятию (опускания) сайта лишь по одному ключу - два.
Пока неизвестно многое. Но мы продолжаем работать.
devzev добавил 18.01.2009 в 01:34
Scoobstr, склейки анкоров не существует. Я вас в этом уверяю. Ставил эксперименты 100 раз.
devzev добавил 18.01.2009 в 01:36
Я уже пытался узнать - каким образом теория объясняет то, что оптимизаторам удается вывести сайты в топ по ВК и ВЧ, где счет ссылок идет на тысячи и десятки тысяч. Однако ответа нет.
Тут тупая стрельба в мишень: попаду - не попаду.
Чем больше доноров, тем бОльшая вероятность попасть в окно из-за его расширения.
Ну сто раз посылал в Википедию. Вот вы хотите всё узнать, а ленитесь почитать элементарные законы теории вероятности!
devzev, а что по поводу второго вопроса?
ГС со своим "трастом" по теории выводится только за счет таких же ГС его окна?
Scoobstr, склейки анкоров не существует. Я вас в этом уверяю. Ставил эксперименты 100 раз.
Был ли в рамках этой сотни проведён эксперимент с массовым проставлением анкоров из 4 и более слов, включая слова с низким весом? Или это была сотня анкоров из слов с очень низким "весом" вроде "ремонт квартир", "пластиковые окна", "ноутбуки"?
Да, понятие "склейка" <> "отрицательное влияние в следствии выхода разброса анкоров за некие рамки". Я имел в виду второе. В "склейку" я и сам не верю.
Как это вяжется, например, с тем, что нулевые ("узкое окно") сайты после прогона по каталогам ("плохие бэки") улучшают свои позиции? Траст падает, позиции растут?
Ну сто раз посылал в Википедию. Вот вы хотите всё узнать, а ленитесь почитать элементарные законы теории вероятности!
Да, конечно, сейчас прочту и выведу пару запросов к Яндексу. А на досуге теорию относительности напишу.
Если обезьяне дать компьютер, она напечатает "Ромео и Джульету" не ранее, чем через 100 лет :)