- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
The WishMaster, ну можно подробнее обосновать сервис клоуна: /ru/forum/comment/8770536
Я решил все таки проверить на собственной шкуре. думаю что должен rookee-вайт лист показать себя лучшим образом из всех площадок, но хотелось бы чтоб реально xtool тоже показал хороший результат и чтоб можно было им пользоваться. Но я очень в этом сомневаюсь так как за пол секунды проверить траст страницы просто не реально, это время как раз на скорость соединения моего компа с сервером на котором расположен сайт, и на ответ этого сервера моему компу.
Да, есть люди, которые все должны проверить только на себе. Даже откровенный бред проверяют.
Да, есть люди, которые все должны проверить только на себе. Даже откровенный бред проверяют.
ага, а ещё есть люди - пустоболы, не будем показывать пальцем
ТС, а почему разные суммы на ссылочное во всех трех случаях? У вас Rookee заведомо в проигрышной позиции.
Harius, есть вещи, которые просто не нужно доказывать :D Но вот Миха постарался, я аж удивился.
Harius, есть вещи, которые просто не нужно доказывать :D Но вот Миха постарался, я аж удивился.
где там доказательство то увидели
там про ихние вайт листы только банальные вещи какие то
а вообще там у них отклонения такие что запросто плохое становится хорошим и никакая относительность не поможет, к примеру конкуренты попроседали по простановочному запросу и всё донор супер рулит, и никакая относительность не даст реальной картины... ну вы поняли мысль
А я их и не защищаю :)
Эксперимент задуман хорошо, но поставлен некорректно: при столь слабом ссылочном большое значение приобретает внутренний фактор, а именно, контент (а тексты у Вас на всех трех тест-сайтах разные!)
Чтобы нивелировать влияние разницы в текстах, я вижу два решения:
1) сделать, как тут советовали, еще три сайта на аналогичном дизайне, являющиеся зеркалами данных тестовых сайтов, но без бэков. Если боитесь неиндексирования неуникального контента, можно сделать рерайт текстов - причем так, чтобы на зеркале 1-го тест-сайта был рерайт текста 1-го тест-сайта, на зеркале второго - рерайт текста 2-го тест-сайта, и на зеркале 3-го - рерайт текста с 3-го сайта. Идея такова, что если сайты без бэков выстроятся в том же порядке, что и сайты с бэками, и относительный отрыв между ними по позициям будет таким же (например, с бэками сайты попадают на места: 100-е, 80, 70, без бэков - на 1000-е, 800-е и 700-е место), то значит, дело не в разнице между бэками, а в разнице контента. А чтобы Яндекс узнал про сайты без бэков, их можно добавить в индексируемые соцзакладки + Яндекс-закладки, и / или поставить временную ссылку с хорошего сайта на каждый (с одной и той же страницы-донора), а потом, для чистоты эксперимента, ссылку убрать и закладки удалить, после попадания в индекс.
2) альтернативный план эксперимента: никаких сайтов больше не создавать, а варьировать ссылочные стратегии для каждого сайта. Например, если обозначить тестовые сайты номерами 1, 2 и 3, а ссылочные стратегии буквами А (без сервисов) , Б (отбор по xtool) и В (отбор по Rookee), то сначала закупаем ссылки на сайты по схеме:
1 - А
2 - Б
3 - В
Ждем несколько апов, фиксируем результаты. Потом меняем ссылки:
1 - В
2 - А
3 - Б
(т.е. ссылки, которые вели на сайт А, будут теперь вести на В, и т.д.)
и далее варьировать - еще 4 варианта (цифры 1, 2, 3 опускаю):
БВА, БАВ, АВБ и ВБА.
Если сайты ранжируются под влиянием ссылочного, а не контента, то разница между парами комбинаций А**, Б** и В** будет заметно превышать разницу между *XY и *YX - для выявления чего есть специальные ранговые статистики.
Правда, тут есть одно "но": мигающие ссылки заведомо хуже постоянных, поэтому придется ждать для каждой комбинации кучу апов, а комбинаций и так целых шесть, это на пару лет эксперимент затянется. А иначе та комбинация, которая хронологически будет первой, дать по всем трем сайтам заметно более сильные позиции, чем все последующие комбинации. Поэтому идеальным решением было бы создать не три, а 6х3=18 тестовых сайтов, а лучше еще больше, скажем, 30 (10х3) и варьировать для каждого стратегии подбора доноров по определенной выше схеме.
Нет! Пока писал, пришла в голову идея, как сделать оптимально! Не надо сайты плодить и ссылки менять, просто после проведения экспериментов с разными ссылками полностью убрать бэки у каждого сайта и посмотреть, что станет с их позициями в выдаче, когда ссылочное уберется!
Нет! Пока писал, пришла в голову идея, как сделать оптимально! Не надо сайты плодить и ссылки менять, просто после проведения экспериментов с разными ссылками полностью убрать бэки у каждого сайта и посмотреть, что станет с их позициями в выдаче, когда ссылочное уберется!
Идея, к сожалению, не очень. В Яндексе давно сделали понижение влияния ссылочного после снятия ссылок очень медленным.
Что вполне обоснованно: иначе бы старые сайты летали от гениальных алгоритмов в пределах топ 1000.
Идея, к сожалению, не очень. В Яндексе давно сделали понижение влияния ссылочного после снятия ссылок очень медленным.
Что вполне обоснованно: иначе бы старые сайты летали от гениальных алгоритмов в пределах топ 1000.
Логично. Ну, тогда варианты 1 или 2, как я написал. И лучше всего (быстрее, по крайней мере) - первый.