- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Вопрос: как можно ускорить покупку ссылок на Сапе, работая на полуавтомате с большим числом урлов?
Если подробнее:
Есть около 500 урлов в проекте.
На каждый надо купить по 1 ссылке.
Установил настройки для полуавтомата: http://awesomescreenshot.com/0e7nsx5ff
По данному фильтру находится около 2000 сайтов.
По статистике, из 100% пришедших заявок, проходит мою модерацию около 3-5%.
Поэтому процесс закупки рискует затянуться на долгие месяцы.
Как можно сделать это в рамках 2-3 недель?
Установите критерии побольше, как закупите необходимое вам количество используйте кнопку "остановить авторежим".
Вопрос: как можно ускорить покупку ссылок на Сапе, работая на полуавтомате с большим числом урлов?
Если подробнее:
Есть около 500 урлов в проекте.
На каждый надо купить по 1 ссылке.
Установил настройки для полуавтомата: http://awesomescreenshot.com/0e7nsx5ff
По данному фильтру находится около 2000 сайтов.
По статистике, из 100% пришедших заявок, проходит мою модерацию около 3-5%.
Поэтому процесс закупки рискует затянуться на долгие месяцы.
Как можно сделать это в рамках 2-3 недель?
Вы видимо не читаете ветку.
С тем же вопросом я обращался неделю назад.
Выход из ситуации прост, как мыло в бане.
НЕ ставьте покупку по ОДНОЙ ссылке на анкор. Ничего не ставьте.
Придет ТЫСЯЧИ ссылок, отбирайте, покупайте. А потом. Открываете "текст" страницы, ставите ограничение ОДНА ссылка, и нажимайте затем "сменить тексты". Все устаканится. Иначе Вы никогда не сможете купить необходимое кол-во ссылок.
Вы видимо не читаете ветку.
С тем же вопросом я обращался неделю назад.
Выход из ситуации прост, как мыло в бане.
НЕ ставьте покупку по ОДНОЙ ссылке на анкор. Ничего не ставьте.
Придет ТЫСЯЧИ ссылок, отбирайте, покупайте. А потом. Открываете "текст" страницы, ставите ограничение ОДНА ссылка, и нажимайте затем "сменить тексты". Все устаканится. Иначе Вы никогда не сможете купить необходимое кол-во ссылок.
Да, в этой ветке я редкий гость.
Т.е. я сейчас у всех 500 урлов, снимаю лимиты, и на каждый из них приходит куча заявок.
Отсеиваю, покупаю как надо.
Далее:
Это я буду делать так же в пакетных функциях для тех же всех 500 урлов, я так понял? Что бы "срезать" все что было сверху?
Смена текста доступна только для каждого отдельно взятого урла. Куда тут надо кликать, и каков смысл? Тут немного не догоняю...
Смена текста доступна только для каждого отдельно взятого урла. Куда тут надо кликать, и каков смысл? Тут немного не догоняю...
ЕСли не лень, там есть функция смены урла для каждого анкора.
Я, пока ссылки не "ожили", одним махом меняю тексты для всех урлов.
А потом разбираемся. :)
Баг в Сапе.
Добавив новый сайт в Сапе, обнаружил баг, связанный с несогласованностью робота-индексатора страниц и скрипта, вывводящего ссылки на площадке вебмастера. Также индексатор не определят идентичные по наполнению страницы сайта с разными URL.
Суть: при индексации площадки страницы такого вида считаются разными:
http//www.sayt.com/page (УВ2 - страница1)
http//www.sayt.com/page/ (УВ3 - страница2)
(УВ - приведен для примера)
Эти страницы считаются разными, даже не смотря на то, что их наполнение идентично. Скрипт же выводящий ссылки на площадке, считает эти страницы идентичными, из за чего ссылки, размещенные на "Страница2" отображаются и на "Страница1".
Если на "Страница2" размещена 1 ссылка, на "Страница1" ссылок нет (или Wait) и на всем сайте нет ни одной внешней ссылки, кроме ссылок Sape, то пересчитав внешние ссылки страницы в разделе "Страницы" обнаруживается удивительная картина - "Страница1" содержит 1 внешнюю (т.е. не Сповскую) ссылку!
Обнаружив такие ссылки, сначала я подумал, что сайт взломали, но отключив и снова подключив код Сапе обнаружил, что проблема в нем.
Предлагаю добавить или починить скрипт, проверяющий индексируемые страницы на идентичность. Возможно, есть смысл проверять по md5 хешу, чтобы не индексировать все наполнение сайта?
Техподдержка
На мой запрос в техподдержку, снова получил "мегаответ": "Здравствуйте, у вас добавлено 2 страницы в систему и на каждой размещается ссылка: ...". Человек (я надеюсь, не робот :)), даже не удосужился проверить, что на одной из приведенных ним страниц ссылка находится в wait (т.е. не размещена). Про то, чтобы вникнуть в суть проблемы, я вообще не говорю, так как у меня, оказывается, добавлено только 2 страницы, а не 2000, как на самом деле.
P.S. Когда же всетаки будет решена проблема с фильтром "страниц с каждого сайта - оптимальные"? Ведь в посте searchengines.ru...523 было обещано, что "скоро".
ну вообщето робот "старается" сверять страницы, возможно, что они всетаки разные?
а отображение ссылок на обоих страницах сделано специально, так как это одна и таже страница.
вывод: в общем то это ваш баг, надо сайт делать так, чтоб страниц таких не было
Avelon добавил 07.11.2011 в 19:28
Можно пару вопросов:
1) Куда делась кнопка "Войти" при входе с мобильного (Opera Mini) - сейчас есть только чекбокс привязки к ip.
2) Как сейчас выплаты проходят ? Я читал FAQ - но все же, интересно уже не будет выплат в течение суток ?
сделал тикет про баг верстки
Avelon добавил 07.11.2011 в 19:33
Смена текста доступна только для каждого отдельно взятого урла. Куда тут надо кликать, и каков смысл? Тут немного не догоняю.
да, ув Датот рассказал способ когда видимо надо купить на 500 текстов , а не на 500 урлов.
по сабжу - ставьте больше на каждом урле, например по 3-5, потом фильтруйте и на том урле, где уже достаточно останавливайте авторежим
по сабжу - ставьте больше на каждом урле, например по 3-5, потом фильтруйте и на том урле, где уже достаточно останавливайте авторежим
А если на УРЛ было куплено, допустим, 10 ссылок, а для него потом в "Текстах" задать "Максимальное использование текстов - 1" - то система 9 ссылок автоматически срежет, или нет?
ЗЫ: и как то неравномерно идет закупка. На 10-20% от всех урлов приходит по несколько десятков заявок, а на остальные 80-90% - ни одной.
Avelon, Помогите решить проблему. Кроме как на вас, больше ни на кого надежды нет. В ТП писал, сказали, что все ОК. Vonivas'у отписался через 11 дней, как он просил, молчок уже неделю. Уже 1.5 месяца прошло, но проблема не решилась. Доходы падают. ХЕЛП!
Avelon, Помогите решить проблему. Кроме как на вас, больше ни на кого надежды нет. В ТП писал, сказали, что все ОК. Vonivas'у отписался через 11 дней, как он просил, молчок уже неделю. Уже 1.5 месяца прошло, но проблема не решилась. Доходы падают. ХЕЛП!
щас не могу посмотреть, а завтра могу забыть, напишите мне в личку, завтра посмотрю
Avelon добавил 07.11.2011 в 22:27
А если на УРЛ было куплено, допустим, 10 ссылок, а для него потом в "Текстах" задать "Максимальное использование текстов - 1" - то система 9 ссылок автоматически срежет, или нет?
гм, думаю что нет
Avelon добавил 07.11.2011 в 22:28
ЗЫ: и как то неравномерно идет закупка. На 10-20% от всех урлов приходит по несколько десятков заявок, а на остальные 80-90% - ни одной.
увы, значит в данную итерацию не хватило доноров по фильтру
скиньте в личку проект посмотреть, попробую прогеров заставить придумать способ более равномерно распределять..
Блин долго мыкался по инету, много смотрел инфы но так и не понял.... как с сайта с тиц 10 и пр2 допустим, имея в поиске я ~300-500 страниц получать 20р в сутки? Новости на сайте рерайт или копипаст, 10-30% оригинальные.
Нужно снижать цены до копеечных вообще? или наоборот заламывать в 2е дороже?
Понимаю что вопрос наверное для многих ламерский, но хотелось бы услышать дельный ответ.
ПС сейчас с такого сайта имею рубля 4-7 в сутки... смешно судя по всему :(
Скинул.
Хотя собственно это:
решило бы проблему.
Я знаю, что у меня 5% заявок проходит через фильтры.
Итого, на каждый УРЛ я ставлю лимит по 20 ссылок.
Полуавтомат их собирает, я проверяю. Где то не будет купленно ни одной ссылки, где то попадется 2-3.
Тогда я указываю Максимум использования слов, и лишние из этих 2-3 срезаются. Урлы с купленными ссылками я снимаю с полуавтомата и все. А то, что срезали, может прийти в следующих заявках на другие урлы.
Для полуавтомата у меня стоят относительно лояльные условия, поэтому дифицита заявок особо не наблюдается. А так сегодня пришлось вручную срезать все, что было купленно сверху.
Добавлю: было бы очень хорошо, если бы на странице для пакетного управления текстами, появились кнопки, как в пакетном управлении режимами покупки "Отметить все УРЛ, где нет ссылок".