Вполне себе инструмент привлечения внимания и доп. лояльности.
Если разумно и грамотно его использовать - полезность очевидна.
Тут больше вопрос к "красным линиям", не встречались примеры, когда вводились санкции? Мне кажется, что в основном только отключают/снижают эффект от них. Ну а если уже санкции, то там не отзывы основная причина, есть что-то существенее.
Шапочку с фольги надевать не хочется, но Гугл обладает просто нереальным объемом информации о каждом. Поэтому я планирую смешивать отзывы с реальными (понятно что по началу мотивированными). На каждый реальный несколько своих. Где-то до 50% от конверсий по конкретной услуге/категории за определенный период времени. Плюс проводить это через личный кабинет или подтверждение номера, чтобы четко отделять клиентов от конкурентов.
А то что это инструмент, то даже не обсуждается) Банально подтолкнуть снежный ком, ведь гораздо охотнее оставляют отзывы там, где уже кто-то что-то написал и это опубликовано.
Предмет отзыва решает. Не думаю что кто-то оставит о лечении в кож-вене. Но под какой-то показушной товаркой - легко, она же и покупается для того, чтобы ею хвастать.
1. Скриншот просто для примера. На одном сайте есть более 5к страниц, которые не в индексе, и 5к в индексе. Постоянно идёт мигание - то заходит в индекс, то уходит. Из отчета можно выгрузить только 1к. Хочется все. Подскажите, как это сделать?2. Стоит ли вообще доверять этому отчету? Есть пример с немалым количеством страниц, суть такая: Консоль показывает, что урл в индексе. Чекаю урл через один сервис - не в индексе, через site:url.com - не в индексе; если просто вставить урл в поиск без site: , то в индексе.
Дроби sitemap по 1-1,5к в каждый файл и выгружай по каждому файлу отдельно каждую ошибку
С той оперативностью, что он выкатывает данные, использую более для определения общего вектора движения сайта. А с этими деиндексациями и склейками иногда аж противно туда смотреть)
А в чем может быть причина, если есть и карта сайта и перелинковка адекватная?
Он изначально так плохо индексируется и не "разгоняется".
Вот данные по сканированию из гугловского вебмастера
1 - Изначально была открыта индексация в robots.txt только нужных страниц (около 150шт)
2 - Убрали txt, ограничили индексацию через meta и он полез вглубь.
3 - Вернулись к txt, чтобы экономить краулинговый бюджет
Сейчас робот загружает в среднем 60-120 страниц в сутки. Может это не мало (при открытых для индексации 350 страниц), но новосозданные страницы попадают в индекс оооооочень туго. Есть сейчас такие, что висят месяц на сайте, есть в сайтмепе, но не проиндексированы.
С поддоменами/доменами понятно. А что по частоте добавления информации?
У половины сайтов, которые ранжируются по данному запросу в google.com.ua на укр языке, в индексе даже нет ни одного слова на укр языке, не то чтобы полноценной укр версии)
Та и вопрос не в том, что кто-то ранжируется выше - сайта просто нет в топ100, дальше не лез искать.
Если кому интересно - остановил свой выбор на appfollow.io
Спасибо, сейчас буду тестить
Больше недели назад были направлены сообщения в сапорт с описанием проблем (неправильно снимаются позиции по регионам, а по части вообще не снимаются) и с предложениями по улучшению сервиса. Ни ответа ни привета. Когда ждать то? 😕