ihor_y

Рейтинг
66
Регистрация
16.02.2015
Антоний Казанский #:

Вполне себе инструмент привлечения внимания и доп. лояльности.

Если разумно и грамотно его использовать - полезность очевидна.

Тут больше вопрос к "красным линиям", не встречались примеры, когда вводились санкции?  Мне кажется, что в основном только отключают/снижают эффект от них. Ну а если уже санкции, то там не отзывы основная причина, есть что-то существенее.

Шапочку с фольги надевать не хочется, но Гугл обладает просто нереальным объемом информации о каждом. Поэтому я планирую смешивать отзывы с реальными (понятно что по началу  мотивированными). На каждый реальный несколько своих. Где-то до 50% от конверсий по конкретной услуге/категории за определенный период времени. Плюс проводить это через личный кабинет или подтверждение номера, чтобы четко отделять клиентов от конкурентов.

А то что это инструмент, то даже не обсуждается) Банально подтолкнуть снежный ком, ведь гораздо охотнее оставляют отзывы там, где уже кто-то что-то написал и это опубликовано.


iSmel #:
реально кто- то еще думает что люди бесплатно отзывы оставляют? да нафиг это кому надо? Только если негатив... все сами себе и пишут (ну кроме озона и т.п)

Предмет отзыва решает. Не думаю что кто-то оставит о лечении в кож-вене. Но под какой-то показушной товаркой - легко, она же и покупается для того, чтобы ею хвастать.

vip-grinders :


1. Скриншот просто для примера. На одном сайте есть более 5к страниц, которые не в индексе, и 5к в индексе. Постоянно идёт мигание - то заходит в индекс, то уходит. Из отчета можно выгрузить только 1к. Хочется все. Подскажите, как это сделать?

2. Стоит ли вообще доверять этому отчету? Есть пример с немалым количеством страниц, суть такая: Консоль показывает, что урл в индексе. Чекаю урл через один сервис - не в индексе, через site:url.com - не в индексе; если просто вставить урл в поиск без site: , то в индексе. 

Дроби sitemap по 1-1,5к в каждый файл и выгружай по каждому файлу отдельно каждую ошибку

С той оперативностью, что он выкатывает данные, использую более для определения общего вектора движения сайта. А с этими деиндексациями и склейками иногда аж противно туда смотреть)

А в чем может быть причина, если есть и карта сайта и перелинковка адекватная?

Он изначально так плохо индексируется и не "разгоняется".

Вот данные по сканированию из гугловского вебмастера

1 - Изначально была открыта индексация в robots.txt только нужных страниц (около 150шт)

2 - Убрали txt, ограничили индексацию через meta и он полез вглубь.

3 - Вернулись к txt, чтобы экономить краулинговый бюджет

Сейчас робот загружает в среднем 60-120 страниц в сутки. Может это не мало (при открытых для индексации 350 страниц), но новосозданные страницы попадают в индекс оооооочень туго. Есть сейчас такие, что висят месяц на сайте, есть в сайтмепе, но не проиндексированы.

С поддоменами/доменами понятно. А что по частоте добавления информации?

У половины сайтов, которые ранжируются по данному запросу в google.com.ua на укр языке, в индексе даже нет ни одного слова на укр языке, не то чтобы полноценной укр версии)

Та и вопрос не в том, что кто-то ранжируется выше - сайта просто нет в топ100, дальше не лез искать.

Если кому интересно - остановил свой выбор на appfollow.io

Спасибо, сейчас буду тестить

Больше недели назад были направлены сообщения в сапорт с описанием проблем (неправильно снимаются позиции по регионам, а по части вообще не снимаются) и с предложениями по улучшению сервиса. Ни ответа ни привета. Когда ждать то? 😕