- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Столько времени уже мусолиться эта тема, и до сих пор нет ни одной серьезной работы.
Скажите, есть тут люди – маркетологи по призванию (или хотя бы по образованию)? ;)
Так вот, если бы серьезные компании, или просто люди, заинтересовались подобным вопросами, что бы они сделали? Я, думаю, что нечто подобное:
Зарегистрировать 10 сайтов по разным тематикам, разной конкуренции. Например:
Пластиковые окна – 2 сайта
Форекс – 2 сайта
Медицина – 2 сайт
Образование – 2 сайта
Особенности разведения пираний в домашних условиях – 2 сайта.
Затем покупаем ссылки, по 10 морд на каждый сайт и по 100 внутренних на каждый сайт. Разумеется с уникальными словами. Например, «пластиковые окна модели тестнанепот1», или проще «qwerty1/7».
При этом, морды выбираются следующим образом:
<5 внешних ссылок – 20 сайтов
6-10 внешних ссылок – 20 сайтов
11-15 внешних ссылок– 20 сайтов
16-20 внешних ссылок – 20 сайтов
>20 внешних ссылок – 20 сайтов.
Аналогично, разбиваем внутренние на группы.
Параллельно, для каждого из сайтов изучаем такие параметры:
-тИЦ;
- ссылающихся доменов;
- ссылающихся страниц (или просто ссылок);
- внешних ссылок с ссылающейся страницы (морда, или внутернняя);
- всего ссылок (внешние+внутренние);
- проиндексировано страниц в Яндексе;
- количество внешних ссылок на всех проиндексированных страниц в Яндексе;
- количество ссылок всего на всех проиндексированных страницах в Яндексе;
Так же можно вывести производные данные, такие как среднее количество внешних ссылок на 1 страницу, всего ссылок на 1 страницу, беков на 1 страницу и т.д. Тут уже включаем воображение и делим/умножаем поочередно друг на друга все показатели…
Ссылки покупаем тоже по-разному: 25% сразу одним блоком, 25% сразу, разбросанные по сайту, 25% поочередно блоком, и 25% поочередно разбросаны по сайту.
Ждем месяц.
После этого проверяем:
- индексируемость ссылки (видит ли ее яндекс);
- нахождение сайта по нашим уникальным ссылкам.
Затем все данные заносим в таблицу и ищем корреляцию.
Для наглядности, строим графики методом наименьших квадратов.
Конечно, алгоритма не откроит. Но покажет, в каком направлении капать дальше – однозначно!
Занимает это примерно полтора месяца, по деньгам: 100 морд средних по 4-7 баксов за ссылку – 400-700, 1000 внутренних по 0,1-0,3 за ссылку – 100- 300—у.е. Ну, еще создание сайтов + работа анализатора.
1,5-2К у.е.
Для серьезного агентства/оптимизатора (каковыми 90% присутствующих себя считают) – это не деньги.
Меня просто интересует, неужто никто ничего подобного не делал? Или делали, но не публикуют данные? ;)
Если кому интересно – можем помочь и в плане проведения и анализа, и подборе/покупке площадок.
Критикуйте!
Elven, не найдете Вы там корреляции по указанным выше данным.
Сейчас мы знаем как снимается непот и проверяем - как он накладывается.
ТС, вы предлагаете копать не в том направлении.
Я сказал к примеру.
Знаете какие - тем более берете, и анализируете (хотя я не уверен, что нигде корелляции не будет. Откуда такая уверенность?).
80 листов в теме по непоту и даже не договорились об определении...
Юра, давай лучше непот-сервис к CLX прикрутим?
Уже с двумя биржами договоренность есть ;)
Сейчас мы знаем как снимается непот и проверяем - как он накладывается.
Кость, я что-то может пропустил, открой тайну плиз, а то вот 2 сайта под непотом, все что мог сделать, не помогло, а Щукин пишет типа все хорошо!
Elven, найдёте закономерности, конечно. Но десяти сайтов, да ещё с такой массой изменяемых от сайта к сайту параметров, не хватит для однозначных выводов.
P.S. Имелось в виду для однозначно верных выводов. )
Кость, я что-то может пропустил, открой тайну плиз, а то вот 2 сайта под непотом, все что мог сделать, не помогло, а Щукин пишет типа все хорошо!
Правильно пишет! Непот-фильтр не признается поддержкой Яндекса, и Саша Садовский в своем интервью дал понять, что и не будет признаваться :p
Ну так...
Я вам про цели и методики, а вы мне про конкретные сайты и показатели!
Сперва определяем направление.
Потом его изучаем более конкретно... Было бы желание ;)
Хотя, проблема может быть в том, что пока что-то выясниться (надо месяца полтора минимум) Яндекс снова поменяет алгоритм и/или принцип наложения непота...
Кость, я что-то может пропустил, открой тайну плиз, а то вот 2 сайта под непотом, все что мог сделать, не помогло, а Щукин пишет типа все хорошо!
топорный метод - снять все внешние на 1 месяц. Помогает/ло. Но это при регулярных прогулках Яндекса по сайту и АПах, а не как сейчас...
Ну а вообще готов поспорить, что через некоторое время, )) кто-нибудь ) у кого с подопытными получше/побольше организует продажу "нового продукта" )) в виде, например, результатов исследования на эту тему
топорный метод - снять все внешние на 1 месяц. Помогает/ло. Но это при регулярных прогулках Яндекса по сайту и АПах, а не как сейчас...
Так... давайте разберемся
Вы предлагаете снять все ВНЕШНИЕ (т.е. ссылки, которые стоят на сайте (покажу все-таки пациента, терять нечего) www.gectar50.ru и банально ждать 1 месяц?
Кстати, если не считать счетчики, то там ссылка лишь на 1 сайт.