maksim4ik

Рейтинг
11
Регистрация
10.03.2011
Lev:
Эксперимент задуман хорошо, но поставлен некорректно: при столь слабом ссылочном большое значение приобретает внутренний фактор, а именно, контент (а тексты у Вас на всех трех тест-сайтах разные!)

Чтобы нивелировать влияние разницы в текстах, я вижу два решения:

1) сделать, как тут советовали, еще три сайта на аналогичном дизайне, являющиеся зеркалами данных тестовых сайтов, но без бэков. Если боитесь неиндексирования неуникального контента, можно сделать рерайт текстов - причем так, чтобы на зеркале 1-го тест-сайта был рерайт текста 1-го тест-сайта, на зеркале второго - рерайт текста 2-го тест-сайта, и на зеркале 3-го - рерайт текста с 3-го сайта. Идея такова, что если сайты без бэков выстроятся в том же порядке, что и сайты с бэками, и относительный отрыв между ними по позициям будет таким же (например, с бэками сайты попадают на места: 100-е, 80, 70, без бэков - на 1000-е, 800-е и 700-е место), то значит, дело не в разнице между бэками, а в разнице контента. А чтобы Яндекс узнал про сайты без бэков, их можно добавить в индексируемые соцзакладки + Яндекс-закладки, и / или поставить временную ссылку с хорошего сайта на каждый (с одной и той же страницы-донора), а потом, для чистоты эксперимента, ссылку убрать и закладки удалить, после попадания в индекс.


2) альтернативный план эксперимента: никаких сайтов больше не создавать, а варьировать ссылочные стратегии для каждого сайта. Например, если обозначить тестовые сайты номерами 1, 2 и 3, а ссылочные стратегии буквами А (без сервисов) , Б (отбор по xtool) и В (отбор по Rookee), то сначала закупаем ссылки на сайты по схеме:
1 - А
2 - Б
3 - В

Ждем несколько апов, фиксируем результаты. Потом меняем ссылки:

1 - В
2 - А
3 - Б

(т.е. ссылки, которые вели на сайт А, будут теперь вести на В, и т.д.)

и далее варьировать - еще 4 варианта (цифры 1, 2, 3 опускаю):

БВА, БАВ, АВБ и ВБА.

Если сайты ранжируются под влиянием ссылочного, а не контента, то разница между парами комбинаций А**, Б** и В** будет заметно превышать разницу между *XY и *YX - для выявления чего есть специальные ранговые статистики.

Правда, тут есть одно "но": мигающие ссылки заведомо хуже постоянных, поэтому придется ждать для каждой комбинации кучу апов, а комбинаций и так целых шесть, это на пару лет эксперимент затянется. А иначе та комбинация, которая хронологически будет первой, дать по всем трем сайтам заметно более сильные позиции, чем все последующие комбинации. Поэтому идеальным решением было бы создать не три, а 6х3=18 тестовых сайтов, а лучше еще больше, скажем, 30 (10х3) и варьировать для каждого стратегии подбора доноров по определенной выше схеме.

Нет! Пока писал, пришла в голову идея, как сделать оптимально! Не надо сайты плодить и ссылки менять, просто после проведения экспериментов с разными ссылками полностью убрать бэки у каждого сайта и посмотреть, что станет с их позициями в выдаче, когда ссылочное уберется!

Там сайты все одинаковые. Суть в них тоже одинаковые, просто изменил текст синонимами да и все. Так-что из-за этого ничего не должно поменяться.

maksim4ik добавил 05.04.2011 в 07:46

dlyanachalas:
ТС, а почему разные суммы на ссылочное во всех трех случаях? У вас Rookee заведомо в проигрышной позиции.

Я решил проверить качество ссылок, а не сумму. Больше всего денег я потратил на те ссылки, которые отбирались с помощью xtool. По xtool у каждой 7-й страницы xt больше или равно 3-х , а все остальные по мнению данного сервиса являются гомно-донорами. Вот из-за этого я и решил проверить качество определения, и если верить создателю xtool и эффект от страниц с xt <= 1 нулевой, то можно сказать что я купил не 15 ссылок, а 100 (чтоб найти 15 "качествонных" страниц для закупки, мне пришлось отсеивать из 100 из выдачи САПЕ). А 100 проверок у xtool стоят 15 рублей, что уже является двум месячным бюджетам :D.

Miha Kuzmin (KMY):
The WishMaster, ну можно подробнее обосновать сервис клоуна: /ru/forum/comment/8770536

Я решил все таки проверить на собственной шкуре. думаю что должен rookee-вайт лист показать себя лучшим образом из всех площадок, но хотелось бы чтоб реально xtool тоже показал хороший результат и чтоб можно было им пользоваться. Но я очень в этом сомневаюсь так как за пол секунды проверить траст страницы просто не реально, это время как раз на скорость соединения моего компа с сервером на котором расположен сайт, и на ответ этого сервера моему компу.

saleseo:
Без оптимизации какой смысл то делать эксперементы?
От нее зависит 80% успеха и никакие там автозакупщики не помогут Вам.

Голова + руки + хорошая партнерская скидка на бирже = успех

Сервисы по любому заложат свою маржу)

И какую-же оптимизацию Вы предлагаете мне провести??? Просто добавить тег description и тег keywords и все???

Harius:
да не слушайте вы никого, болтунов тут хватает, только уши развешивай..
верить можно только самому себе, и путь экспериментов - самый верный, так что продолжайте ваши экспериенты, если надо можно и запросов подкинуть;)..

вот только слишком всё рандомно получается в вашем эксперименте, боюсь адекватности при таких исходных данных будет маловато так как:
1) кроме уже сказанного нужно ещё учитывать многие факторы, например релевантность донора, региональность, количество внешних ссылок и тп..
2) 15 ссылок слишком маловато
У вариантов других сервисов надо наверное брать страницы с низким XT, чтоб не оказалось что и там и там доноры по нашему сервису хорошие..
чтоб сравнить правильнее было б пользоваться нашими рекомендациями (сначала отбираем по XT главных страниц), потом XT страницы и обязательно смотрим количество внешних ссылок чтоб не было велико.

Проверил донора тех ссылок которые на сапе купил без вашего плагина.

Результат: все ссылки с xt меньше 2-х (мин. 0.1 макс. 1.5, кроме одной, у нее xt-3.

Все ссылки на все 3 сайта идут с Вс не более 4-х. Я проверил и буду проверять и дальше.

XTD у всех сайтов (которые отбирались плагином Xtool) от 3-х и до 8-ми

saleseo:
Смысл теста?

Вы точно уверены что оптимизация у сайтов сделана на уровне?
Без нее сервис не сервис, толку мало и данные будут крайне субъективные.
Если запрос СЧ с низкой конкуренцией, ссылки порой и не нужны.

Для 0 сайтов на долго все растянется у Вас, это уже технический момент.

Оптимизации никакой и нет.

Title: это запрос продвигаемый

Тега описания нет вообще

Ключевиков нет вообще

На главной странице в тексте 2 раза встречается продвигаемая фраза.

Запрос низкоконкурентный но на своем опыте скажу что просто так сайт по нему в топ-10 точно не попадет. Тут чтобы с 15-ю ссылками попал и то хорошо будет, я просто в этой сфере имею уже сайт и поэтому знаю что там конкуренция какая-никакая но есть. Вот из-за этого я и делаю данный тест.

maksim4ik добавил 03.04.2011 в 20:57

medea:
ТС, а теперь создайте еще три сайта с тем же запросом, не покупайте на них ссылки вообще и тоже следите как позиции будут меняться

Как яндекс про сайт то узнает, если ссылки не покупать на него?

maksim4ik добавил 03.04.2011 в 20:58

The WishMaster:
Дальше можно не продолжать :D

Вы не доверяете данному сервису??? Обоснуйте почему-же? Меня конечно тоже терзают сомнения по поводу его честности но все же я решил его проверить. Мне просто не ясно каким образом он за пол секунды определяет траст страницы???

Решил протестировать данный сервис и открыл новую тему в которой буду отписываться о результатах теста.

Ссылка на тему: /ru/forum/618416

Думаю всем будет интересно узнать стоит ли пользоваться данным сервисом или это просто пустая трата времени и денег, а то все тут только и могут что попросту об***ать данную систему проверки доноров да и все.

Всего: 76