- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброй ночи.
Меня очень сильно волнует вопрос, почему до сих пор нету адекватной системы проверки позиций в поисковых системах для людей, которые делают работы по SERM.
Объясняю на конкретном примере:
в данный момент я занимаюсь очисткой поисковых результатов для большой компании (SERM-услуги).
У меня есть семантическое ядро из более 25 запросов по которым надо очистить результаты поиска в ТОП-10.
Под каждый запрос написано по 10 различных положительных или нейтральных статей и размещено.
Таким образом 25 x 10 = 250 страниц у меня в продвижении (то ж самое что 250 разных продвижений, потому что они на разных доменах, разных сайтах, каждай на отдельной отменной странице).
Возникает вопрос - как проверить позицию каждой отдельной страницы (т. е. каждого отдельного сайта) в поисковых системах по всему семантическому ядру.
Я думаю, что очень даже понятно, почему мне не подходит любая обычная программа для проверки позиций.
В чем отличие проверки позиций для SERM:
Отсюда следует, что, чтобы проверить позиции по каждому домену отдельно (ведь позиции по каждому домену разные, это не домены-алиасы) у Вас мне необходимо создать 20 * 10 = 200 проектов в любой системе проверки позиций онлайн и проектов в программе, затем по каждому проверять позиции и это все складывать в одну кучу.
Это, конечно же, не удобно, очень долго по времени и не правильно.
Необходимо создать возможность мультипроверки позиций многих различных доменов по одним ключевым словам.
Такая себе матрица с результатами.
Все это должно будет изображено одним отчетом, одной проверкой позиций и одним кликом.
В результате:
позиции по каждому домену по каждому запросу для него.
Я вижу создание такого проекта очень просто, два поля:
- Поле доменов (каждый с новой строки)
- Поле поисковых запросов (каждый с новой строки)
Позиции и проверяются для каждого домена и формируются в удобный отчет.
----
В интернете нет аналогов для проверки SERM-позиций, а спрос, поверьте моему опыту (и моему большому количеству коллег интернет-маркетологов и сеошников), огромен.
Еще раз повторюсь, что речь идет не об доменах алиасах.
Письма писал с просьбой сделать это в: SERP Parser, SEO Budget, AllPosition, Rank Tracker, SEOlib, Postiton и множество других.
Откликнулись и поняли, что нужно сделать только первые два, но, пока ждем, ведь на это нужно много времени.
Может я не в теме, и все-таки есть профильные инструменты для проверки позиций по SERM?
Как Вы это делаете?
---------- Добавлено 11.01.2013 в 02:54 ----------
Пробовал использовать sermometer.ru , но для больших объемов работы, к сожалению, не подходит и немножко не то, что надо.
Это что, скрытая реклама сервиса? )))
Спам, даже замаскированный - не лучший способ рекламы для сервиса )))
Вы вообще читали само сообщение?
Пишу об реальной потребности в сервисе, совсем не таком, как пример, что наведено в конце сообщения.
А на счет сермометра, читайте внимательно:
Понятно, что каждому хочется иметь мини-семраш (под любую ПС) у себя на компе 🤪
Вполне реально, что "SERP Parser" реализует данную фичу, т.к. на просьбу парсинга Li и частотности Wordstat, создатель серппарсера ответил мне положительно, вскоре реализовав данные пожелания.
Это пиар, но обоснованный ☝
Понятно, что каждому хочется иметь мини-семраш (под любую ПС) у себя на компе 🤪
Вполне реально, что "SERP Parser" реализует данную фичу, т.к. на просьбу парсинга Li и частотности Wordstat, создатель серппарсера ответил мне положительно, вскоре реализовав данные пожелания.
Это пиар, но обоснованный ☝
Это не мини-семраш.
Это банальная проверка позиций, но, матричная - множество доменов проверяется на множество позиций. И все дела.Ничего сложного.
Ничего сложного.
Гугл только, сцука такая, банит ИП при куче запросов,
а так да, пустяки
Гугл только, сцука такая, банит ИП при куче запросов,
а так да, пустяки
Вы из каменного века :)
Каптча и прокси все решают давно.
Вы из каменного века :)
Каптча и прокси все решают давно.
и локальную выдачу Гугла? 😂😂😂🍿🍿🍿
и локальную выдачу Гугла? 😂😂😂🍿🍿🍿
Убедительная просьба, не тролить, без знания предметной части.
Если Вы не знаете, как работают поисковые системы и как давно программы научились проверять позиции, то Вам не сюда.
Я вижу создание такого проекта очень просто, два поля:
- Поле доменов (каждый с новой строки)
- Поле поисковых запросов (каждый с новой строки)
предлагаю для полноты ТЗ дописать:
- поле ввода поискового запроса в минималистичном дизайне (пример http://ya.ru/white)
ну и потом
Позиции и проверяются для каждого домена и формируются в удобный отчет.
и - можно на Фриланс, как раз там хватает подобных заказов, несложных по цене :)
Теперь можно это делать в http://serpparser.ru/news.html и http://seobudget.ru/tools/positions/ :)