- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Эксперимент задуман хорошо, но поставлен некорректно: при столь слабом ссылочном большое значение приобретает внутренний фактор, а именно, контент (а тексты у Вас на всех трех тест-сайтах разные!)
Чтобы нивелировать влияние разницы в текстах, я вижу два решения:
1) сделать, как тут советовали, еще три сайта на аналогичном дизайне, являющиеся зеркалами данных тестовых сайтов, но без бэков. Если боитесь неиндексирования неуникального контента, можно сделать рерайт текстов - причем так, чтобы на зеркале 1-го тест-сайта был рерайт текста 1-го тест-сайта, на зеркале второго - рерайт текста 2-го тест-сайта, и на зеркале 3-го - рерайт текста с 3-го сайта. Идея такова, что если сайты без бэков выстроятся в том же порядке, что и сайты с бэками, и относительный отрыв между ними по позициям будет таким же (например, с бэками сайты попадают на места: 100-е, 80, 70, без бэков - на 1000-е, 800-е и 700-е место), то значит, дело не в разнице между бэками, а в разнице контента. А чтобы Яндекс узнал про сайты без бэков, их можно добавить в индексируемые соцзакладки + Яндекс-закладки, и / или поставить временную ссылку с хорошего сайта на каждый (с одной и той же страницы-донора), а потом, для чистоты эксперимента, ссылку убрать и закладки удалить, после попадания в индекс.
2) альтернативный план эксперимента: никаких сайтов больше не создавать, а варьировать ссылочные стратегии для каждого сайта. Например, если обозначить тестовые сайты номерами 1, 2 и 3, а ссылочные стратегии буквами А (без сервисов) , Б (отбор по xtool) и В (отбор по Rookee), то сначала закупаем ссылки на сайты по схеме:
1 - А
2 - Б
3 - В
Ждем несколько апов, фиксируем результаты. Потом меняем ссылки:
1 - В
2 - А
3 - Б
(т.е. ссылки, которые вели на сайт А, будут теперь вести на В, и т.д.)
и далее варьировать - еще 4 варианта (цифры 1, 2, 3 опускаю):
БВА, БАВ, АВБ и ВБА.
Если сайты ранжируются под влиянием ссылочного, а не контента, то разница между парами комбинаций А**, Б** и В** будет заметно превышать разницу между *XY и *YX - для выявления чего есть специальные ранговые статистики.
Правда, тут есть одно "но": мигающие ссылки заведомо хуже постоянных, поэтому придется ждать для каждой комбинации кучу апов, а комбинаций и так целых шесть, это на пару лет эксперимент затянется. А иначе та комбинация, которая хронологически будет первой, дать по всем трем сайтам заметно более сильные позиции, чем все последующие комбинации. Поэтому идеальным решением было бы создать не три, а 6х3=18 тестовых сайтов, а лучше еще больше, скажем, 30 (10х3) и варьировать для каждого стратегии подбора доноров по определенной выше схеме.
Нет! Пока писал, пришла в голову идея, как сделать оптимально! Не надо сайты плодить и ссылки менять, просто после проведения экспериментов с разными ссылками полностью убрать бэки у каждого сайта и посмотреть, что станет с их позициями в выдаче, когда ссылочное уберется!
Там сайты все одинаковые. Суть в них тоже одинаковые, просто изменил текст синонимами да и все. Так-что из-за этого ничего не должно поменяться.
maksim4ik добавил 05.04.2011 в 07:46
ТС, а почему разные суммы на ссылочное во всех трех случаях? У вас Rookee заведомо в проигрышной позиции.
Я решил проверить качество ссылок, а не сумму. Больше всего денег я потратил на те ссылки, которые отбирались с помощью xtool. По xtool у каждой 7-й страницы xt больше или равно 3-х , а все остальные по мнению данного сервиса являются гомно-донорами. Вот из-за этого я и решил проверить качество определения, и если верить создателю xtool и эффект от страниц с xt <= 1 нулевой, то можно сказать что я купил не 15 ссылок, а 100 (чтоб найти 15 "качествонных" страниц для закупки, мне пришлось отсеивать из 100 из выдачи САПЕ). А 100 проверок у xtool стоят 15 рублей, что уже является двум месячным бюджетам :D.
Эврика! Я придумал. Достаточно этих трех сайтов, но надо сделать так: сначала ввести в индекс без бэков и посмотреть, как они ранжируются. Подождать пару апов, убедиться в стабильности. А потом купить бэки по планируемой схеме и посмотреть разницу.
Дело в том, что если тексты на них уже одинаковые (рерайт одного и того же), то из-за этого могут наложиться санкции на два последних сайта - последних в плане хронологического порядка захода робота и индексации. Первый будет считаться уникальным, а два вторых - его рерайтом. А какой из трех первым попадет в индекс - это непонятно, и это может существенно исказить влияние слабого ссылочного фактора.
При планируемой ТС схеме исследования первым более вероятно попадет тот, на который ведут наиболее сильные бэки, но фактор случайности в этом есть, и немалый
PS. Самому что ли сделать тест-сайты на народ.ру и провести эксперимент? Но я ни сапой, ни Роокее не пользуюсь... Только статьи + ручная закупка ссылок
Эврика! Я придумал. Достаточно этих трех сайтов, но надо сделать так: сначала ввести в индекс без бэков и посмотреть, как они ранжируются. Подождать пару апов, убедиться в стабильности. А потом купить бэки по планируемой схеме и посмотреть разницу.
Дело в том, что если тексты на них уже одинаковые (рерайт одного и того же), то из-за этого могут наложиться санкции на два последних сайта - последних в плане хронологического порядка захода робота и индексации. Первый будет считаться уникальным, а два вторых - его рерайтом. А какой из трех первым попадет в индекс - это непонятно, и это может существенно исказить влияние слабого ссылочного фактора.
При планируемой ТС схеме исследования первым более вероятно попадет тот, на который ведут наиболее сильные бэки, но фактор случайности в этом есть, и немалый
PS. Самому что ли сделать тест-сайты на народ.ру и провести эксперимент? Но я ни сапой, ни Роокее не пользуюсь... Только статьи + ручная закупка ссылок
Тексты на сайтах не одинаковые, суть в них одна и та-же. Два раза в тексте используется продвигаемый запрос, и так на всех сайтах.
Вообщем в бан попасть сайты не должны из-за копипаста.
Что-то сайты никак в поиске не появятся. Ни один еще не появился в яше.
И-так в поиск попал сайт который продвигается через сервис Rookee с использованием White-листов.
Другие сайты пока в поиске не засветились.
Вы неправильно делаете. Попробуйте в пределах одного сайта высчитать и посмотреть - какая страница будет релевантнее, чем другие по определенному запросу.
И не нужно никаких тестовых простановок и измышлений с созданием одинаковых страниц в интернете делать.
Да что тут обосновывать... никто не знает, что такое траст, а они его меряют :)
Надо бы провести эксперимент, который раз и навсегда расставит все точки над и: xtool определяют траст по ими составленной формуле, по их словам, приближенной к Яндекс-формуле. Так вот правильно ли они составили формулу...
MACEDONSCIY добавил 17.05.2011 в 14:22
Эврика! Я придумал. Достаточно этих трех сайтов, но надо сделать так: сначала ввести в индекс без бэков и посмотреть, как они ранжируются. Подождать пару апов, убедиться в стабильности. А потом купить бэки по планируемой схеме и посмотреть разницу.
Дело в том, что если тексты на них уже одинаковые (рерайт одного и того же), то из-за этого могут наложиться санкции на два последних сайта - последних в плане хронологического порядка захода робота и индексации. Первый будет считаться уникальным, а два вторых - его рерайтом. А какой из трех первым попадет в индекс - это непонятно, и это может существенно исказить влияние слабого ссылочного фактора.
При планируемой ТС схеме исследования первым более вероятно попадет тот, на который ведут наиболее сильные бэки, но фактор случайности в этом есть, и немалый
PS. Самому что ли сделать тест-сайты на народ.ру и провести эксперимент? Но я ни сапой, ни Роокее не пользуюсь... Только статьи + ручная закупка ссылок
Если рерайт делать с уником больше 90% санкций не будет Причем рерайт должен делать один человек.
Вы неправильно делаете. Попробуйте в пределах одного сайта высчитать и посмотреть - какая страница будет релевантнее, чем другие по определенному запросу.
И не нужно никаких тестовых простановок и измышлений с созданием одинаковых страниц в интернете делать.
Согласен во всем, правда тестовые простановки нужны. Без простановок нет самого эксперимента.
Надо купить побольше ссылок если проверяется качество, или наоборот убрать все ссылки кроме одной, и проверять поссылочно. Проверить 10-20-... рандомных ссылок с того и другого сервиса и оценить в среднем чьи ссылки лучше.
...прошло более двух месяцев...