mazafaka5

Рейтинг
99
Регистрация
18.01.2011
Sitealert:
выберите уже одно правило из этих двух

Используется только этот:

RewriteCond %{ENV:HTTPS} !on

если убираю "!on" - ломается сайт 500 ошибка,

если убираю "RewriteEngine on" - редирект не работает

Здравствуйте. Помогите пж. Хотел редирект только с http на https, а он с https на https тоже действует.

Если так не получится, хотя бы эту страницу редиректить не надо. "site.ru/assets/components/mspyacassa/controllers/minishop2.php"

ps 301 редирект у меня работает в 2х случаях... и на всякий случай прилагаю весь htaccess

RewriteEngine on

RewriteCond %{HTTP:X-HTTPS} !1
RewriteRule ^(.*)$ https://%{HTTP_HOST}/$1 [R=301,L]
RewriteBase /

RewriteEngine on

RewriteCond %{ENV:HTTPS} !on
RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} [R=301,L]
RewriteBase /

RewriteEngine on

RewriteCond %{ENV:HTTPS} !on
RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} [R=301,L]

RewriteBase /

RewriteCond %{HTTP_HOST} ^www.site.ru$ [NC]
RewriteCond %{REQUEST_URI} !^/robots.*
RewriteRule ^(.*)$ http://site.ru/$1 [R=301,L]

RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !\..{1,10}$
RewriteCond %{REQUEST_URI} !(.*)/$
RewriteRule ^(.*)$ http://www.site.ru/$1/ [L,R=301]

# Rewrite www.domain.com -> domain.com -- used with SEO Strict URLs plugin
#RewriteCond %{HTTP_HOST} .
#RewriteCond %{HTTP_HOST} !^example-domain-please-change\.com [NC]
#RewriteRule (.*) http://example-domain-please-change.com/$1 [R=301,L]
#
# or for the opposite domain.com -> www.domain.com use the following
# DO NOT USE BOTH
#
#RewriteCond %{HTTP_HOST} .
#RewriteCond %{HTTP_HOST} !^www\.example-domain-please-change\.com [NC]
#RewriteRule (.*) https://www.example-domain-please-change.com/$1 [R=301,L]

RewriteCond %{HTTP_HOST} ^www\.([A-Za-z0-9_-]*)\.site\.ru
RewriteRule ^(.*)$ https://%1.site.ru/$1 [R=permanent,L]

# Rewrite secure requests properly to prevent SSL cert warnings, e.g. prevent
# https://www.domain.com when your cert only allows https://secure.domain.com
#RewriteCond %{SERVER_PORT} !^443
#RewriteRule (.*) https://example-domain-please-change.com/$1 [R=301,L]

# The Friendly URLs part
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule ^(.*)$ index.php?q=$1 [L,QSA]

С уважением. Простите за длинный пост.

KrutE:
а зачем парсить форумы бренд-авто, если можно там напрямую разместить рекламу?
туда же всякие катера-яхты, хай-энды, спорт, который могут себе позволить только люди со временем.

Хороший вариант.

И соц. сети тоже неплохой, но дорогой, клик в контакте стоит рублей 20-25.

Остается только - яндекс аудитории, буду пробывать.

Тарасов Роман:
99% пользователей там это школота и диванные "бизьмисьмены", которые планируют купить машину, как только "бизьнесь в гору пойдет".

Поэтому если и парсить, то очень сильно фильтровать руками.

Похоже почти не реал со стороны рекламы найти таких клиентов

---------- Добавлено 10.04.2018 в 08:08 ----------

clock:
https://yandex.ru/support/audience/segments/dmp.html Либо лить дисплей на узкую аудиторию (там можно таргетировать по доходам) и отслеживать пикселем просмотры баннера, и либо на них, либо LaL. И все это в RLSA, разумеется. Ну, и решиться-таки свои списки "заливать".

Спасибо за знание. Сложно, но разобрался.. В этом направлении надо обучаться 100%

Опять же мне надо бесплатный способ, или недорогой . Если платный то эффективный , денег нет на эксперименты

samimages:
Тут основная проблема в том, что у многих есть бизнес, основная часть из успешных бизнесменов крайне молода и потому энергична и конечно у них есть статусная машина и даже айфон какойнить.

Это реально проблема, особенно если искать их по сетям. Но у них есть плюс, частенько они покупают всякое говно на последние деньги и кормят тем самым целую индустрию.

А по аудитории, тут гляньте http://mediascope.net/ - будет "больно"

Смотрю. Конечно больно, мне самому надо вопрос решить, таких денег нет.

задача не очень сложная - показать яндекс директ руководителям крупных компаний и владельцам бизнеса...

подумать еще явно есть способ.

По базам ретаргетинга видели что-то конкретное таких случаев?

Спасибо за ответы.

---------- Добавлено 09.04.2018 в 09:04 ----------

freesorgo:
https://target.megafon.ru/description/

Один из критериев - большие траты на связь.

Спасибо за инфо.

---------- Добавлено 09.04.2018 в 09:04 ----------

-= Serafim =-:
Желающих получать лиды в данном сегменте аудитории просто огромная, потому у вас нет шансов.

Шансы то есть. Они сами приходят на сайт, но так редко. Но точного способа не вижу.

Придется парсить друзей vk, но кого именно... Руководителей чег-то там, владельцев крупных компаний, если они есть. В каких группах могут быть хорошие клиенты не ясно.

Может быть парсить клубы владельцев Volvo xc70, и авто подобного уровня... + Автомобили с большим расходом топлива ..

Понял, попробую. Но это же не единственный способ решить задачу?

А есть что-либо хитрое по таргетингу? Как то ведь можно таких людей найти в Перми или Екб ?

Andreas071:
Попробуйте через Яндекс.Аудитории. Но для них понадобится база, которую желательно купить/собрать.

А есть пример подобных баз?

Телефоны и емайлы своих клиентов в яндекс аудитории заливать не решусь.

Но скажите пж, как яндекс имея телефоны и емайлы - сможет найти "цель"?

вобщем ищу что-нить из информации чтобы почитать .. получить опыт

Простите за то отвлекаю) но что-то не идет дело. Редиректа нет, удалял для теста robots.txt из корня, и пробывал следующие конструкции в htaccess :

RewriteCond %{HTTP_HOST} ^site.ru$

RewriteRule ^robots.txt$ /robots-main.txt [L]
RewriteCond %{HTTP_HOST} ^subdomain.site.ru$
RewriteRule ^robots.txt$ /robots-subdomains.txt [L]

RewriteCond %{HTTP_HOST} ^subdomain.site.ru$

RewriteRule ^robots.txt$ /robots-subdomains.txt [L]

RewriteEngine on


RewriteCond %{HTTP_HOST} ^subdomain.site.ru [NC]
RewriteRule ^robots\.txt /robots_chelyabinsk.txt [NC,L,R=301]

RewriteBase /


RewriteCond %{HTTP_HOST} chelyabinsk\.site\.ru/.*robots\.txt$
Rewriterule ^robots.txt$ robots_chelyabinsk.txt [R=301,NC,L]
miketomlin:
mazafaka5, вам надо развести в том числе и роботс основного домена, потому что в нек. случаях наличие этого файла в корне будет делать все ваши попытки как-то использовать .htaccess абсолютно бессмысленными.

Корень является базой по умолчанию, но в общем автор написанного прав.

А почему не хотите использовать самый естественный вариант, т.е. развести поддомены по отдельным сайтам/каталогам?

Я попроще хотел бы конечное, но modx cms + webhost1 - на отдельную папку c поддомена нельзя направиться, нет будет подсайт работать.

---------- Добавлено 06.10.2017 в 12:48 ----------

miketomlin:
mazafaka5, вам надо развести в том числе и роботс основного домена, потому что в нек. ---------- Добавлено 06.10.2017 в 12:28 ----------

Host: https://<?=$_SERVER['HTTP_HOST']?>
Забыли, что переприсваивали имя хоста др. переменной? :)

Копипастил.... Не понимая. И все еще плохо понимаю, буду тщательней вникать позже седня.

---------- Добавлено 06.10.2017 в 12:48 ----------

miketomlin:

---------- Добавлено 06.10.2017 в 12:26 ----------

Х.З., текстовый контент-тайп лучше выдавать. В $_SERVER['HTTP_HOST'] может передаваться и корневой домен – сделайте хотя бы «трим точки справа». Точки в маске нужно экранировать (robots\.txt).

Подарите пожалуйтса пример строк кода, я понял но правильно сделать первый раз трудно

---------- Добавлено 06.10.2017 в 12:48 ----------

Х.З.:
вот так точно будет выдавать содержимое robots.php при запросе robots.txt, только эти записи в файле .htaccess:

RewriteEngine on

RewriteBase /
RewriteRule ^robots.txt$ robots.php

Может быть и отдает..... Но я не вижу изменений...

прямо так вверху файла .htaccess :

# MODX supports Friendly URLs via this .htaccess file. You must serve web

# pages via Apache with mod_rewrite to use this functionality, and you must
# change the file name from ht.access to .htaccess.
#
# Make sure RewriteBase points to the directory where you installed MODX.
# E.g., "/modx" if your installation is in a "modx" subdirectory.
#
# You may choose to make your URLs non-case-sensitive by adding a NC directive
# to your rule: RewriteRule ^(.*)$ index.php?q=$1 [L,QSA,NC]

RewriteEngine on
RewriteBase /
RewriteRule ^robots.txt$ robots.php

Но при заходе на Site.ru/robots.txt текст по строкам разбит

User-agent: *

Disallow:

User-agent: Yandex
Host: https://site.ru

Sitemap: https://site.ru/sitemap.xml

а при заходе на Site.ru/robots.php в одну строку:

User-agent: Yandex Host: https://site.ru Sitemap: https://site.ru/sitemap.xml
Sitealert:
Или надо
RewriteBase /
или /robots-subdomain.txt

Спасибо за пояснения. Буду разбираться... все равно сделаю

---------- Добавлено 06.10.2017 в 11:02 ----------

Х.З.:
Не нужно делать сотни разных robots файлов, достаточно одного, пример robots.php:
<?php

//код на php
$domain = $_SERVER['HTTP_HOST'];
?>
User-agent: Yandex
Host: https://<?=$_SERVER['HTTP_HOST']?>
Sitemap: https://<?=$domain?>/sitemap.xml

в htaccess
RewriteRule ^robots.txt$ robots.php

Мне тоже этот метод понравился, просто почему то не редиректит с robots txt на Роботс php

Возможно причина в других редиректах, они то работают всегда. А с файликом и так и так пробывал, и на отдельные персональные файлы отправлять, и на автоматом создавать ничего.

RewriteEngine On

RewriteBase /

RewriteRule ^photo/$ /gallery/ [R=301,L]

RewriteEngine On

RewriteCond %{HTTP_HOST} ^www.site.ru$ [NC]
RewriteCond %{REQUEST_URI} !^/robots.* # этот блок позволяет существовать robots txt по двум адресам, www.site.ru/robots.txt и просто site.ru/robots.txt ?
RewriteRule ^(.*)$ http://site.ru/$1 [R=301,L]

RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !\..{1,10}$
RewriteCond %{REQUEST_URI} !(.*)/$
RewriteRule ^(.*)$ http://www.site.ru/$1/ [L,R=301]
Всего: 67