- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброе утро всем.
Проблема следующая есть N сайтов проиндексированных в ПС Я.ру, на каждом сайте встречается слова «Y».Запрос «Y» является конкурентным. По запросу «Y» в я.ру хочу узнать релевантность этих сайтов. Сайты занимают позицию ниже 500 точно, возможно ниже 1000. Мне нужно знать точно какое место занимает каждый сайт.
хочу узнать релевантность этих сайтов.
Вводите запрос "Y" в строку поиска и нажимаете "Найти". ;)
Вводите запрос "Y" в строку поиска и нажимаете "Найти". ;)
Сайты N находятся на позициях в интервале от 1000 и до 5000 по запросу «Y». Очень тяжело их отследить. Есть способ кроме того который ты посоветовал???
Очень тяжело их отследить.
В настройке результатов поиска есть пункт "Размер страницы", выбираете показывать 50 найденных документов.
Сложно?
Доброе утро всем.
Проблема следующая есть N сайтов проиндексированных в ПС Я.ру, на каждом сайте встречается слова «Y».Запрос «Y» является конкурентным. По запросу «Y» в я.ру хочу узнать релевантность этих сайтов. Сайты занимают позицию ниже 500 точно, возможно ниже 1000. Мне нужно знать точно какое место занимает каждый сайт.
Есть для этого программы специальные, semonitor к примеру.
Да и онлайн сервисы есть.
Есть для этого программы специальные, semonitor к примеру.
Да и онлайн сервисы есть.
semonitor - платить надо ))) Буду иметь в виду.
Буду признателен если укажете онлайн сервис. Я находил только, которые смотрят до 500 позиции.
Поделитесь секретом, зачем Вам отслеживать 101-й километр?
Яндекс не показывает больше 1000 результатов, так что забудьте.
А, сорри, если 50 на странице ставить - то до 5000 и впрямь.
Поделитесь секретом, зачем Вам отслеживать 101-й километр?
Тайна покрытая мраком ))))
Яндекс не показывает больше 1000 результатов, так что забудьте.
А, сорри, если 50 на странице ставить - то до 5000 и впрямь.
Я тоже думал, что 1000 это макс, но не долго, пока в "Настроить поиск " не залез.
atog, ну тогда в семонитор. Если немного ключевиков, то и демка вполне пойдет. Правда я не уверен, держит ли он такую глубину...
Как вариант, если уж очень надо - через флешгет сделайте пакетную загрузку файлов, правилами настроив скачку всех страниц [ставим в url p=(*) и диапазон 0-99], загружаем их в определенную папку (обязательно настройте user-agent и максимум 1 задание и в 1 поток), а там уже поиск по файлам строки (домен сайта) и смотрим на позицию.