- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Google и другие поисковики вводят всё больше сервисов для вебмастеров и простых смертных – например Google Custom Search Engine, Webmaster Tool, Sitemap и т.д..
Одновеменно растёт число других сервисов предлагаемых для анализа сайтов
Простые смертные просто ищут, ищут в картинках, ищут в видео и тому подобное.
С каждым нововведением вебмастера начинают лихорадочно применять их к своим сайтам в надежде, что волшебная машинка – например Sitemap - несказанно улучшит их позиции. Я не исключение – юзаю эти тулы и всё время сравниваю с сайтами, к которым это дело не применяю (Долгоиграющий эксперемент)
При этом если смотреть на логи – то не вижу разници при посещении ботом. Все сайты – как и с Sitemap так и без у меня практически одинаково сканируются.
При этом если я вижу в Webmaster Tool, что Sitemap не обновлялась минимум 1 неделю – то вначале я пинговала, а теперь нет.
Уже давным давно не пользуюсь всеми автоматическими сервисами для проверки проиндексированных страниц в поисковиках или показывающих степень ранжирования.
Все они – даже самого поисковика - не предоставляют действительную картину. Может быть эти сервисы и интересны в начале – то потом на это просто жалко тратить время.
Единственное что проверяю – как находиться сайт по ключевику непосредственно в самом нужном поисковике и анализирую логи сервера. Мне этого достаточно для разработки стратегии по анализу сайтов. Интересен только Google Analytic, но даже он не показывает все заходы и ещё к тому же Google начинает много знать...
А ещё + подбор вариантов ключевых слов
Теперь вопрос - как часто Вы юзаете автоматические сервисы?
Про сервисы поисковиков отдельно - не спрашиваю - нет места. По умолчанию они внутри пунктов
Наверное надо было ещё ввести пункт: "Автоматичекими сервисами не пользуюсь"