- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
С сегодня прога отказывается парсить глубину больше 50 в Яндексе. Выставляю 100. В отчете позиции дальше 50 так и не показываются.
а у меня вовсе позиции не находятся, даже те, что в ТОП10
kostiknc, Denil, Для контроля программы воспользуйтесь этой инструкцией
http://serpparser.ru/forum/index.php/topic,18.0.html
Вручную нужно проверять через браузер с чистыми куками, чтобы
исключить персонифицированную выдачу, например в хроме в режиме
Инкогнито.
---------- Добавлено 27.07.2012 в 11:17 ----------
kostiknc, Как вы настраиваете глубину поиска? Если через инструмент
"Управление поисковыми фразами", то обратите внимание что
настройка режима поиска применяется только к новым фразам,
добавленным только что.
Если Вам нужно изменить настройки уже имеющихся поисковых фраз, то вот ссылка на документацию:
Изменить настройки нескольких поисковых фраз - http://serpparser.ru/doc_keywords.html#edit_keyword_properties
очень нехвататет опции "задержка при бане (в гугле)"
там чтоб сделать таймаут мин на 20-30 (не засекал сколько бан у гугла)
если во время проверки нажать кнопку отмена а потом снова возобновить проверку выбрав обновлять только то что не обновлено то есть НЕ ЗАНОВО
прога почему то не всегда это понимает и начинает обновлять все заново
NBSerG, программа делает паузу в одну минуту, после этого заново обращается к гуглу. Думаете лучше увеличить задержку? Еще, если используются прокси то при бане программа меняет IP.
Zizizi, напишите пожалуйста подробности на support@serpparser.ru, интересует как Вы делали замеры. Проблем с продолжением заданий еще не было.
NBSerG, программа делает паузу в одну минуту, после этого заново обращается к гуглу. Думаете лучше увеличить задержку? Еще, если используются прокси то при бане программа меняет IP.
на бан надо делать отдельную паузу...
примерно 30-60 мин
а еще бы было неплохо сделать кнопку обновить только какой то поисковик...
например только гугл или яндекс
NBSerG, отдельно можно, для этого в дереве проекта нужно выделить нужный источник и из контекстного меню выбрать Обновить.
По паузе - записал на реализацию, спасибо.
это если надо по какой то 1й группе
а если их 10...
NBSerG, подумаю как решить, спасибо.