- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день!
Есть сайт. Необходимо узнать, по каким запросам он входит в топ 10-20.
Реально ли это с помощью какого-нибудь сервиса сделать?
Как проверить наличие ресурса по списку запросов я знаю, altervision.ru - отличный сервис.
А вот что делать, если я список запросов не знаю, и мне как раз нужно его собрать?
Есть вариант - руками вытащить из мета тэгов, тайтла, H1-H2 и т.п. ключевики и прогнать их через тот же altervision.ru - но это вариант геморойный и не очень надежный (по некоторым запросам в топе может быть не главная страница, а разделы или отдельные страницы сайта... по большому ресурсу собирать кейворды со всех страниц - это геморой дикий, разве что опять же каким-либо сервисом), есть ли метод получше?
Winter, Доступ к логам есть?
Winter, самое простое - поставьте лбой счётчик. на ваш вкус. там ищите раздел: запросы, по которым находят сайт...
Liveinternet показывает позиции запросов (там целый раздел для этого отдельный), с которых перешли за сегодняшний день - посидеть пару недель и собрать
а по тем, по которым 2-3 перехода в месяц и не нужно знать их позицию
самый точный метод- анализировать логи
самый точный метод- анализировать логи
А если речь идет о конкуренте?
Самый лучший на мой взгляд: http://seotools.altervision.ru/?service=sitepos
Проверяет по куче поисковиков.
Друзья, спасибо за ответы, но StarLey меня наиболее правильно понял.
Нужно проанилизировать как в выдаче сидит конкурент, поэтому доступа ни к логами, ни к счетчикам нет и не будет.
вот еще сервис полезный
www.seo.bigli.ru
Хотя сейчас свой делаем многофакторный.
Сдаецца мне, что ежели нужно проверить конкурента, то в теме автор (хоть немного) разбирается и следовательно некоторые из основных запросов известны (чудес не бывает и неизвестного Вам ВЧ не будет 100%)
А вот взять и прогнать урл через кем-то любезно предоставленый сервис (читай суперкомпьютер) нереально....только представте сколько слов в русском языке и сколько вариаций запросов существует если брать всю величавость и многообразие великого и могучего... Яндекс просто забанит этот IP на корню ибо похоже это будет на злостную атаку хацкеров :-)
lompad, ну тут не согласен :)
Не обязатель совершенно прогонять весь словарь.
Достаточно взять с сайта все слова в тайтле (пробить отдельно каждое слово и фразы, не разделенные знаками препинания), аналогичным образом слова из H1, H2 (можно еще H3), из болдов и т.п.
Для того, чтобы анализировать полноценно сайт, а не главную страницу, можно задавать насколько глубоко от главной странице делать анализ (например, глубина два клика от главной).
При нормальной базе проксей подобный скрипт будет работать хорошо и давать очень близкий к 100%-ной достоверности результат.
Вот я собственно и интересуюсь, нет ли чего-либо подобного. :)
Еще, как альтернативный алгоритм, можно анализировать все внешние ссылки с морд на сайт и пробивать те кейворды, которые в тексте ссылок + все слова-фразы из тайтла, без анализа контента страниц.
Этот алгоритм тоже будет достаточно достоверный.
В общем смысл банально в том, чтобы вычислять запросы по которым сайт имеет шанс быть в топе, и проверять конкретно их.
Руками это сделать можно, значит можно и софтом.