Для бюджета сейчас и проводится выбор способа продвижения.
Я понимаю что для каждого поддомена нужно писать новые текста.
А для региона Россия написал 1 текст и готово.
Например "грузоперевозка из Москвы во Владивосток" - не вижу смысла для такого запроса писать 10 уникальных текстов под каждый регион, ведь по сути это не геозависимый запрос.---------- Добавлено 17.08.2016 в 12:51 ----------И попутный вопрос. Можно ли к сайту привязать общий регион -Россия и плюс к нему областной Новосибирск (Новосибирская область)?
Категориям соответственно присваивать регионы?
И что с регионом Россия? Его лучше не присваивать?
ТЗ автоматически составленное в сервисе TZmonster.ru. Загнал туда ключи, а он тебе вот такую вот портянку с рекомендациями выдал. В нем же рабочая область для копирайтера, чтобы он там же мог проверять свой текст на соответствие ТЗ.
Бывают партнерки с банерами на которых крутятся мобильный приложения/игры и там платят за инсталл?
То есть грубо говоря это что-то на подобии http:// mobioffers .ru/ но только с динамическими баннерами.
Есть бурж kixer.com, но там выбор приложений маленький и платят за клики по приложениям. (из плюсов есть маленькая плавающая табличка с офером мобильным)
1. Сайт
2. Категория
Сообщение на почту пришло?
Качнуло. Сперва минус по многим позициям, 5 июня возврат на предыдущие, но с небольшими улучшениями.
пс. из гугла вообще полны вылет
1. 20 -> 10
2. 40 -> 10
3. 0 -> 20
4. 0 -> 10
5. 0 -> 10
Все справедливо:) У кого-то отнялось, другим прибавилось. Все естественно практически, нигде за ТИЦем специально не гнались, не накручивали.
Где в минус ушли показатели, там было много ссылок из каталогов (аля из рук в руки, желтые страницы и тд). Походу яндекс многие гавно-каталоги перестал считать авторитетными.
Я знаю что сама CP по умолчанию для каждого созданного домена создает стандартный robots.txt, дальше она никак не участвует в процессе. То есть я удаляю этот robots.txt и все он больше не появляется.
поставил на поиск, может найдет во временных файлах или кэше. В бд потом буду шерстить.
Удалил. Все равно это:
# vestacp autogenerated robots.txt
User-agent: *
Crawl-delay: 10
и снова нет😡
Но я полагаю что направление верное, какой-то плагин вставляет свой robots.txt, а вот какой хз.