- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В общем-то, сервис готов процентов на 60. Однако, возможно, стоит что-то делать не так или вообще такое никому не нужно...
1) Вводим запросы, по которым хотим быть в топе. Выбираем регион. Создаём анализ.
2) Получаем на e-mail письмо о завершении. Идём на сервис, получаем список анкоров, выбираем среди них подходящие. Запускаем поиск доноров.
3) Получаем письмо. Идём на сервис. Берём оттуда список доноров для вайтлиста и список анкоров. Чистим список доноров, если нужно, и идём на биржу ссылок.
О анкорах:
Анкоров формируется много. В большинстве случаев достаточно для продвижения по введённым запросам. Анкоры различного качества. От полного автомата до ручных. Поэтому из них надо выбирать наилучшие.
О донорах:
Список доноров формируется на основе списков доноров сайтов в топе методом пересечения с подсчётом количества страниц в Яндексе и Google и количества ссылок со страниц. В итоге у каждого донора формируется "рейтинг". В список попадают доноры с наибольшим рейтингом.
Время анализа:
Анализ выполняется в течении нескольких часов. Это в теории - для нескольких тысяч доноров.
В общем-то, сервис готов процентов на 60. Однако, возможно, стоит что-то делать не так или вообще такое никому не нужно...
1) Вводим запросы, по которым хотим быть в топе. Выбираем регион. Создаём анализ.
2) Получаем на e-mail письмо о завершении. Идём на сервис, получаем список анкоров, выбираем среди них подходящие. Запускаем поиск доноров.
3) Получаем письмо. Идём на сервис. Берём оттуда список доноров для вайтлиста и список анкоров. Чистим список доноров, если нужно, и идём на биржу ссылок.
О анкорах:
Анкоров формируется много. В большинстве случаев достаточно для продвижения по введённым запросам. Анкоры различного качества. От полного автомата до ручных. Поэтому из них надо выбирать наилучшие.
О донорах:
Список доноров формируется на основе списков доноров сайтов в топе методом пересечения с подсчётом количества страниц в Яндексе и Google и количества ссылок со страниц. В итоге у каждого донора формируется "рейтинг". В список попадают доноры с наибольшим рейтингом.
Время анализа:
Анализ выполняется в течении нескольких часов. Это в теории - для нескольких тысяч доноров.
Если я вас правильно понял, то ваш сервис похож на Сеопульт и Webeffektor. В чем сила?
Если я вас правильно понял, то ваш сервис похож на Сеопульт и Webeffektor. В чем сила?
Если я вас правильно понял, то ваш сервис похож на Сеопульт и Webeffektor. В чем сила?
м... Может, я неправильно объяснил...
Сервис не покупает сам ссылки. Он делает только 2 вещи:
1) Формирует список анкоров (тут даже биржи соответствующие появляются...). При этом пользователь сам выбирает наилучшие.
2) Ищет "наиболее эффективные" доноры для покупки ссылок с этих доноров на биржах. Ищет он их по следующему принципу:
Предположим, что мы двигаем сайт по некому запросу Х.
В топе по этому запросу находятся сайты s1...sk.
Предположим, что запрос конкурентный, и, следовательно, на сайты s1...sk ссылаются множество доноров.
Пусть это будут доноры d1...dn.
1) эти доноры должны быть лучше выбранных наобум(случайным образом) по той причине, что многие оптимизаторы чистят список доноров.
2) Предположим также, что не смотря на это среди доноров имеются как "хорошие" (множество D1), так и "плохие" (множество D2). Доноры из множества D1 ("хорошие") положительно влияют на позиции сайтов. Доноры из множества D2 ("плохие") влияют слабо, не влияют либо влияют отрицательно.
Предположим также, что проанализировано большое количество сайтов из топа, благодаря чему в множества D1 и D2 попал значительный процент доноров от доступных на рынке (то есть на бирже). Возьмём идеальный вариант (естественно, на практике недостижимый, однако к нему можно стремиться). В таком случае в множества D1 и D2 попадут все доступные доноры.
Сайты s1...sk находятся в топе, а это значит, что на них ссылаются в том числе и доноры из множества D1.
Пусть Ds1 - множество доноров, ссылающихся на 1-й сайт из выдачи, Dsk- на k-й.
Допустим, что в множество DSk входят Yk доноров.
Представим себе, что оптимизатор k-го сайта оценивает очередную площадку для размещения
ссылки на предмет того, покупать ссылку или нет.
Пусть оптимизатор k-го сайта правильно оценивает каждую следующую площадку с вероятностью mk.
Предполождим также, что на рынке (на бирже) присутствует L1 хороших площадок и L2 плохих.
Пусть
Попалась хорошая площадка с вероятностью L1/(L1+L2):
Не Ошибся: mk
Ошибся: (1-mk)
Попалась плохая площадка с вероятностью L2/(L1+L2):
Не Ошибся: mk
Ошибся: (1-mk)
Попалась хорошая и не ошибся
mk*L1/(L1+L2)
Попалась плохая и ошибся
(1-mk)*L2/(L1+L2)
Вероятность того, что оптимиатору попалась хорошая площадка:
Пусть Kk-количество площадок, ссылающихся на сайт sk.
В таком случае в множестве Dsk доноров ссылок на сайт с наибольшей вероятностью присутствует Kxk=Pk1*Kk хороших площадок и Kpk=(1-Pk1)*Kk плохих.
То есть на k-й сайт ссылаются Kxk хороших площадок и Kpk плохих.
Теперь рассмотрим пересечение множеств Dsl и Dsn, то есть множеств ссылок на l-й и n-й сайты соответственно.
Хорошая площадка окажется в пересечении множеств в случае, если она присутствует в обоих
Оценка вероятности того, что некая одна хорошая площадка d присутствует в множестве Dsk:
Оценка вероятности того, что плохая площадка присутствует в множестве Dsk:
Вероятность того, что хорошая площадка присутствует в пересечении множеств:
Вероятность того, что плохая площадка присутствует в пересечении множеств:
Тогда наиболее вероятное количество хороших площадок в пересечении:
Наиболее вероятное количество плохих площадок:
Вероятность того, что в пересечении множеств оказалась хорошая площадка (или, иначе, процент площадок в пересечении):
Предположим, что ссылки на площадки в топе куплены случайным образом
тогда ml=mn=0.5
Оба неравенства превращаются в следующие:
Если L=1
То есть в таком случае основными требованиями является разное количество ссылок, которое должно отличаться в 2 раза и более
То есть мы видим, что в таком случае всё ещё проще, так как достаточно даже равных значений количества ссылок
А теперь вернёмся в начало, туда, где мы делили ссылки на "хорошие" и "плохие".
Отметим, что граница между "Хорошими" и "Плохими" ссылками не была чётко установлена.
Соотношение между количеством "Хороших" и "Плохих" доноров зависит от границы между "Хорошими"
и "Плохими" ссылками. Чем лучшие доноры должны остаться, тем больше будет значение L.
Из расчётов выше мы видим, что при случайном выборе доноров для сайтов в топе 50% "Хороших" сайтов
отсеется с условием Kn>2*Kl, а 20% "самых лучших", - уже с более мягкими условиями. При увеличении L
условия смягчаются. Это значит, что самые качественные доноры в таком случае будут отобраны с наибольшей вероятностью.
Посчитаем ещё для некоторых значений
2 "Умных" оптимизатора, которые в 80% случаев не ошибаются
Что мы видим? Что условия в данном случае смягчаются. То есть 50% более качественных сайтов будут
выделены уже в случае, если количество ссылок превышает всего в 1.4 раза.
Для L=4 всё ещё проще
Ещё вариант: если наткнулись на 2-х оптимизаторов, которые ошибаются чаще, чем угадывают :)
Допустим, mn=ml=0.3, то есть ни ошибаются в 70% случаев :)
Тогда
В данном случае для получения списка из 50% сайтов надо, чтобы превышение количества ссылок было в 3 раза.
Однако для границы в 25% всё уже не так плохо:
То есть даже в данном случае качество выборки должно улучшиться
Ну и, напоследок, вариант с разными оптимизаторами
Если ошибся где-то в формулах или расчётах, прошу поправить. Всё же с ходу это всё накатал. До этого никогда сей метод формализовать не пытался.
autosubmit добавил 15.12.2009 в 07:17
Может, я там где-то в корне ошибаюсь?
autosubmit, разбираться в обилии букв лениво, может объясните парой фраз свои вычисления? Или хотя бы для начала самую последнюю формулу из поста #3, Kn > 6*Kl/9.6.
Kn и Kl - это что? Они у Вас как-то появились в середине поста ниоткуда. ;)
Полезный сервис будет. Вопрос только на сколько качественные площадки сможете отобрать.
Очень заинтересовал проект. Классная идея. Встану в ряды первых тестеров, если возможно!
Сервис не покупает сам ссылки. Он делает только 2 вещи:
1) Формирует список анкоров (тут даже биржи соответствующие появляются...). При этом пользователь сам выбирает наилучшие.
2) Ищет "наиболее эффективные" доноры для покупки ссылок с этих доноров на биржах. Ищет он их по следующему принципу:
Тогда уж все-таки добавьте и покупку ссылок тоже. Тогда будет реальный сервис продвижения "под ключ".
Тогда уж все-таки добавьте и покупку ссылок тоже. Тогда будет реальный сервис продвижения "под ключ".
Как я понял появляется возможность формировать вайтлисты. Вот по ним и закупайтесь на любой бирже
Вот как раз покупка ссылок не нужна, получится очередной сеопульт.
autosubmit, разбираться в обилии букв лениво, может объясните парой фраз свои вычисления? Или хотя бы для начала самую последнюю формулу из поста #3, Kn > 6*Kl/9.6.
Kn и Kl - это что? Они у Вас как-то появились в середине поста ниоткуда. ;)
В общем, если объяснить просто, то формирование белого списка строится на следующем:
1) Оптимизаторы сайтов в топе в среднем стремятся сократить ссылочный бюджет, а значит, отбирают наиболее качественные площадки.
2) Оптимизаторы сайтов в топе - в среднем профессионалы, а значит, количество "хороших" ссылок на сайт превышает количество "Плохих" (дающих близкий к 0 либо отрицательный результат). Например, A1 - количество "хороших" ссылок на сайт 1, B1-количество "Плохих". А2-количество хороших ссылок на сайт 2, B2-количество "Плохих". В случае, если A1>B1 и A2>B2, то A1*A2>B1*B2, более того, (A1*A2)/(B1*B2)>A1/B1 и (A1*A2)/(B1*B2)>A2/B2. В таком случае процент "хороших" ссылок в пересечении множеств ссылок на сайты 1 и 2 повышается.
Например, если "хороших" ссылок 0.6%, а плохих 0.4%, то в пересечении множеств хороших будет 0.6*0.6=0.36, а плохих - 0.4*0.4=0.16. 0.36+0.16=0.52. 0.36/0.52=0.69%. То есть видим, что в таком случае "хороших" ссылок было 0.6%, а стало уже 0.69%. А теперь представим, что сайтов не 2, а 100 или 1000 или даже 10000 (при выборке по тематикам).
На практике используется не пересечение 2-х множеств, а начисление донорам "баллов" по тому же принципу, но анализируя при этом ссылки не на 2, а на большое число сайтов. Далее эти баллы пересчитываются:
В качестве сайтов, ссылки на которые анализируем, выбираются сайты из топа по введённым запросам. Также есть выборки в целом по тематикам (эти не вычисляются каждый раз заново, а обновляются время от времени и попадают в базу).
Вот примерно так.
P.S. В моих расчётах постом выше всё равно ошибка.
autosubmit добавил 18.12.2009 в 06:15
Допустим, что на сайт ссылается 1% от всех ссылок на биржах.
Если выбирать их случайным образом, то это будет 1% от всех хороших ссылок и 1% от всех плохих.
Однако оптимизатор выбирает в среднем лучше, чем случайным образом. Иначе его выбил бы из топа нуб, который выбирает случайно.
Потому, хороших ссылок в таком случае больше 1 %, а плохих меньше. Например, хороших 1.1%, а плохих 0.9%.
В таком случае в пересечение попадёт 1.1%*1.1%=0.0121% хороших ссылок и 0.9%*0.9%=0.0081% плохих.
Изначально соотношение "хорошие/плохие" было равно 1.2(2), а в пересечении стало 1.49....