Тестирование сервисов Xtool и Rookee

1 23
M4
На сайте с 10.03.2011
Offline
11
#21
Lev:
Эксперимент задуман хорошо, но поставлен некорректно: при столь слабом ссылочном большое значение приобретает внутренний фактор, а именно, контент (а тексты у Вас на всех трех тест-сайтах разные!)

Чтобы нивелировать влияние разницы в текстах, я вижу два решения:

1) сделать, как тут советовали, еще три сайта на аналогичном дизайне, являющиеся зеркалами данных тестовых сайтов, но без бэков. Если боитесь неиндексирования неуникального контента, можно сделать рерайт текстов - причем так, чтобы на зеркале 1-го тест-сайта был рерайт текста 1-го тест-сайта, на зеркале второго - рерайт текста 2-го тест-сайта, и на зеркале 3-го - рерайт текста с 3-го сайта. Идея такова, что если сайты без бэков выстроятся в том же порядке, что и сайты с бэками, и относительный отрыв между ними по позициям будет таким же (например, с бэками сайты попадают на места: 100-е, 80, 70, без бэков - на 1000-е, 800-е и 700-е место), то значит, дело не в разнице между бэками, а в разнице контента. А чтобы Яндекс узнал про сайты без бэков, их можно добавить в индексируемые соцзакладки + Яндекс-закладки, и / или поставить временную ссылку с хорошего сайта на каждый (с одной и той же страницы-донора), а потом, для чистоты эксперимента, ссылку убрать и закладки удалить, после попадания в индекс.


2) альтернативный план эксперимента: никаких сайтов больше не создавать, а варьировать ссылочные стратегии для каждого сайта. Например, если обозначить тестовые сайты номерами 1, 2 и 3, а ссылочные стратегии буквами А (без сервисов) , Б (отбор по xtool) и В (отбор по Rookee), то сначала закупаем ссылки на сайты по схеме:
1 - А
2 - Б
3 - В

Ждем несколько апов, фиксируем результаты. Потом меняем ссылки:

1 - В
2 - А
3 - Б

(т.е. ссылки, которые вели на сайт А, будут теперь вести на В, и т.д.)

и далее варьировать - еще 4 варианта (цифры 1, 2, 3 опускаю):

БВА, БАВ, АВБ и ВБА.

Если сайты ранжируются под влиянием ссылочного, а не контента, то разница между парами комбинаций А**, Б** и В** будет заметно превышать разницу между *XY и *YX - для выявления чего есть специальные ранговые статистики.

Правда, тут есть одно "но": мигающие ссылки заведомо хуже постоянных, поэтому придется ждать для каждой комбинации кучу апов, а комбинаций и так целых шесть, это на пару лет эксперимент затянется. А иначе та комбинация, которая хронологически будет первой, дать по всем трем сайтам заметно более сильные позиции, чем все последующие комбинации. Поэтому идеальным решением было бы создать не три, а 6х3=18 тестовых сайтов, а лучше еще больше, скажем, 30 (10х3) и варьировать для каждого стратегии подбора доноров по определенной выше схеме.

Нет! Пока писал, пришла в голову идея, как сделать оптимально! Не надо сайты плодить и ссылки менять, просто после проведения экспериментов с разными ссылками полностью убрать бэки у каждого сайта и посмотреть, что станет с их позициями в выдаче, когда ссылочное уберется!

Там сайты все одинаковые. Суть в них тоже одинаковые, просто изменил текст синонимами да и все. Так-что из-за этого ничего не должно поменяться.

maksim4ik добавил 05.04.2011 в 07:46

dlyanachalas:
ТС, а почему разные суммы на ссылочное во всех трех случаях? У вас Rookee заведомо в проигрышной позиции.

Я решил проверить качество ссылок, а не сумму. Больше всего денег я потратил на те ссылки, которые отбирались с помощью xtool. По xtool у каждой 7-й страницы xt больше или равно 3-х , а все остальные по мнению данного сервиса являются гомно-донорами. Вот из-за этого я и решил проверить качество определения, и если верить создателю xtool и эффект от страниц с xt <= 1 нулевой, то можно сказать что я купил не 15 ссылок, а 100 (чтоб найти 15 "качествонных" страниц для закупки, мне пришлось отсеивать из 100 из выдачи САПЕ). А 100 проверок у xtool стоят 15 рублей, что уже является двум месячным бюджетам :D.

L
На сайте с 26.04.2006
Offline
218
Lev
#22

Эврика! Я придумал. Достаточно этих трех сайтов, но надо сделать так: сначала ввести в индекс без бэков и посмотреть, как они ранжируются. Подождать пару апов, убедиться в стабильности. А потом купить бэки по планируемой схеме и посмотреть разницу.

Дело в том, что если тексты на них уже одинаковые (рерайт одного и того же), то из-за этого могут наложиться санкции на два последних сайта - последних в плане хронологического порядка захода робота и индексации. Первый будет считаться уникальным, а два вторых - его рерайтом. А какой из трех первым попадет в индекс - это непонятно, и это может существенно исказить влияние слабого ссылочного фактора.

При планируемой ТС схеме исследования первым более вероятно попадет тот, на который ведут наиболее сильные бэки, но фактор случайности в этом есть, и немалый

PS. Самому что ли сделать тест-сайты на народ.ру и провести эксперимент? Но я ни сапой, ни Роокее не пользуюсь... Только статьи + ручная закупка ссылок

Рекомендую бюро переводов в Москве (http://www.norma-tm.ru) - опыт с 1999 года. Списать долги? Для этого надо пройти банкротство физлиц (https://totbankrot.ru/)
M4
На сайте с 10.03.2011
Offline
11
#23
Lev:
Эврика! Я придумал. Достаточно этих трех сайтов, но надо сделать так: сначала ввести в индекс без бэков и посмотреть, как они ранжируются. Подождать пару апов, убедиться в стабильности. А потом купить бэки по планируемой схеме и посмотреть разницу.

Дело в том, что если тексты на них уже одинаковые (рерайт одного и того же), то из-за этого могут наложиться санкции на два последних сайта - последних в плане хронологического порядка захода робота и индексации. Первый будет считаться уникальным, а два вторых - его рерайтом. А какой из трех первым попадет в индекс - это непонятно, и это может существенно исказить влияние слабого ссылочного фактора.

При планируемой ТС схеме исследования первым более вероятно попадет тот, на который ведут наиболее сильные бэки, но фактор случайности в этом есть, и немалый

PS. Самому что ли сделать тест-сайты на народ.ру и провести эксперимент? Но я ни сапой, ни Роокее не пользуюсь... Только статьи + ручная закупка ссылок

Тексты на сайтах не одинаковые, суть в них одна и та-же. Два раза в тексте используется продвигаемый запрос, и так на всех сайтах.

Вообщем в бан попасть сайты не должны из-за копипаста.

M4
На сайте с 10.03.2011
Offline
11
#24

Что-то сайты никак в поиске не появятся. Ни один еще не появился в яше.

M4
На сайте с 10.03.2011
Offline
11
#25

И-так в поиск попал сайт который продвигается через сервис Rookee с использованием White-листов.

Другие сайты пока в поиске не засветились.

Denisg
На сайте с 10.01.2008
Offline
136
#26

Вы неправильно делаете. Попробуйте в пределах одного сайта высчитать и посмотреть - какая страница будет релевантнее, чем другие по определенному запросу.

И не нужно никаких тестовых простановок и измышлений с созданием одинаковых страниц в интернете делать.

MACEDONSCIY
На сайте с 18.11.2010
Offline
31
#27
The WishMaster:
Да что тут обосновывать... никто не знает, что такое траст, а они его меряют :)

Надо бы провести эксперимент, который раз и навсегда расставит все точки над и: xtool определяют траст по ими составленной формуле, по их словам, приближенной к Яндекс-формуле. Так вот правильно ли они составили формулу...

MACEDONSCIY добавил 17.05.2011 в 14:22

Lev:
Эврика! Я придумал. Достаточно этих трех сайтов, но надо сделать так: сначала ввести в индекс без бэков и посмотреть, как они ранжируются. Подождать пару апов, убедиться в стабильности. А потом купить бэки по планируемой схеме и посмотреть разницу.

Дело в том, что если тексты на них уже одинаковые (рерайт одного и того же), то из-за этого могут наложиться санкции на два последних сайта - последних в плане хронологического порядка захода робота и индексации. Первый будет считаться уникальным, а два вторых - его рерайтом. А какой из трех первым попадет в индекс - это непонятно, и это может существенно исказить влияние слабого ссылочного фактора.

При планируемой ТС схеме исследования первым более вероятно попадет тот, на который ведут наиболее сильные бэки, но фактор случайности в этом есть, и немалый

PS. Самому что ли сделать тест-сайты на народ.ру и провести эксперимент? Но я ни сапой, ни Роокее не пользуюсь... Только статьи + ручная закупка ссылок

Если рерайт делать с уником больше 90% санкций не будет Причем рерайт должен делать один человек.

Denisg:
Вы неправильно делаете. Попробуйте в пределах одного сайта высчитать и посмотреть - какая страница будет релевантнее, чем другие по определенному запросу.
И не нужно никаких тестовых простановок и измышлений с созданием одинаковых страниц в интернете делать.

Согласен во всем, правда тестовые простановки нужны. Без простановок нет самого эксперимента.

Надо купить побольше ссылок если проверяется качество, или наоборот убрать все ссылки кроме одной, и проверять поссылочно. Проверить 10-20-... рандомных ссылок с того и другого сервиса и оценить в среднем чьи ссылки лучше.

оптим.рф (http://оптим.рф) - ООО "ОПТИМ" Комплексная оптимизация сайтов it-optim.com (http://it-optim.com) - Комплексный интернет маркетинг
K
На сайте с 22.05.2009
Offline
111
#28

...прошло более двух месяцев...

1 23

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий