- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
staniki, нужны точные значения в адвордсе? - придется тратить деньги (для разных аккаунтов, разные, то есть подключение точных значений при тратах на рекламную кампанию не регламентировано, что 5 долларов или 30 нужно потратить)
Только на аккаунтах где тратятся деньги идут точные значения, на остальные - диапазоны.
Первый вопрос, есть ли какие то еще способы выявления неявных дублей?
Второй вопрос, можно ли использовать свой основной аккаунт в эдвордсе для своих РК (то есть тратить деньги) и после этого снимать точные значения?
не планируете версию для мака сделать ?
и внедрить поддержку впн для украинских пользователей ?
не планируете версию для мака сделать ?
пока что нет, сейчас все силы расходуются на 4ю версию
и внедрить поддержку впн для украинских пользователей ?
это уже "сервис" выходящий за рамки единоразовой оплаты, то есть в рамках цены лицензии такого точно не будет
Первый вопрос, есть ли какие то еще способы выявления неявных дублей?
чем не подходит нынешний?
Второй вопрос, можно ли использовать свой основной аккаунт в эдвордсе для своих РК (то есть тратить деньги) и после этого снимать точные значения?
если жестокий парсинг и на аккаунте много РК, то лучше завести отдельный. Если объемы не промышленные, то можно. Но мы всегда рекомендуем иметь отдельный аккаунт, не там где у Вашего рекламного агентства 20 клиентов ведется. Риски санкций всегда есть, как понимаете, даже у неприкасаемых )))
Небольшое предложение по функционалу.
При составлении стоп-слов, иногда приходится перечислять все словоформы, иначе захватывает много лишнего.
А иногда однозначно достаточно неполного вхождения.
В настройках стоп-слов предлагаю добавить еще один вид вхождения - "Смешанный".
Например, если в списке просто слово, то оно бы рассматривалось как при настройке "Полное вхождение".
А если так:
слово#
то как при настройке "Частичное вхождение".
К ому можно обратиться для смены лицензии??
написал на мыло что не получается сменить в автоматическом режиме расписал ошибки которые выдает при вводе данных. Ответ прислали просто изумительный
Вы можете произвести замену лицензии в автоматическом режиме: http://www.key-collector.ru/reactivate.php (это займет всего 1 минуту).
В форме автоматической замены нужно будет указать адрес почты (мыло@мыло.ru), один из перечисленных выше старых (текущих) HID, а также новый HID, который отображается при запуске программы на том ПК, куда Вы хотите перенести лицензию.
Пожалуйста, не отвечайте на данное письмо. Оно сформировано автоматически.
Отправили на туже страницу Пхахахахах молодцы блин, кому писать то?
Здравствуйте, Подскажите, есть ли возможность парсить выдачу Яндекс видео? Например по аналогии парсинга наличия ссылки в индексе. Есть задача проверить некое количество юрлов, в индексе я.видео, в идеале конечно с указанием какой плеер отдаётся при наличии ссылки. Или может кто подскажет чем это дело можно автоматизировать.
спасибо за быстрый ответ, все работает!
Когда планируется возобновление функции удаления неявных дублей
Для Key Collector это не дубли:
лечится ли простатит
Yura78, это действительно не дубли, это 2 разных запроса.
Но оба этих запроса можно найти через механизм анализа неявных дублей.
Заметил, что съем релевантной страницы в Яндексе очень часто ошибается и берет какие-то левые страницы сайта. При этом съем позиций показывает хорошие страницы, чаще дает правильный результат. Оба ведь через XML работают? Как максимально сделать точный результат?
Можно как-то настроить получение релевантной страницы через выдачу, а не xml? Это даст более точные результаты?