- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Ну хорошо поставленный эксперемент - он, конечно, не повредит. Только эксперемент на одном сайте не даст ничего, ибо сравнивать все равно не с чем будет. Можно ли назвать это будет эксперементом? Какие выводы можно будет сделать из полученных данных?
Выводы о конкретном сайте конкретной тематики.
Примеры могу кинуть в личку, но в понедельник, щас на дачу, машина и жена ждать не будет :-(
Формат данных для примера в личку киньте в каком хотите получить информацию, пока только в голову приходит такой формат - запросы и позиции, до вылетания, после первой переиндексации и после второй. Может, конечно, еще что-то можно, придумать, для наглядности, но пока в голову не приходит.
Мне кажется, интереснее будет обсудить это здесь.
Насколько я Вас понял, в результате такого эксперимента некоторое время сайт имеет преимущество, после чего все "встает на места", т.е. как при обычном наращивании ссылок? Или сайт скатывается?
Если первое, то даже небольшое временное преимущество может иметь огромное значение. Кроме того, экономим время.
М даааа…
Я уже ставил подобный эксперимент.
3 сайта
Запросы одинаковые «Наркомания», «Алкоголизм» 
Все сайты были зарегины по одной базе из 1500 каталогов
На одном из сайтов запрет на индексацию в robots.txt
Второй добавлен через адд
Третий предполагался проиндексится за счёт ссылок.
И каково было моё удавление.
После того как снял запрет на индексацию и первый сайт проиндексировался.
Первый сайт вышел в топ 10 по обоим запросам.
Остальные два ушли в бан за ссылочный спам.
никакого мощного старта не будет, будет надпись "найден по ссылке"
и эта надпись и будет занимать то место сколько ссылок вы успеете прокачать.
Из репы от анонима.
"Ссылки будут индексироваться медлено. Так что сначала сайт попадёт в индекс, а потом уже будут расти бэки. Так что идея не катит"
Насколько моё мнение, так думается, что в "беляках" в принципе региться нужно. Хоть они могут быть и "злом" - ими могут воспользоваться конкуренты.
Другой вопрос - явно не следует пробовать сразу в таком количестве. Явно у Яши есть фильтр на это. Хотя, с другой стороны, где доказательство того, что сайт попал в "беляки" по воле самого владельца регистрируемого сайта?
В моём СЕРПе практически нет ссылок с белых. Окромя некоторых региональных. Почему - не интересовался. Считаю, КПД регистрации в них - невысок.
Что-то мысль Ваша до конца мне не ясна...Вопрос в теме конкретно задан. Мнения высказаны. Что-то добавить хотели? Я не понял :)
Если про то, что куча ссылок на сайт за короткий период времени - зло, то, ИМХО, Вы не правы.
Делал так уже. Разницы никакой, что сразу пару сотен ссылок, что постепенно. В конечном счёте позиции одинаковые.