mazafaka5

Рейтинг
110
Регистрация
18.01.2011

Простите за то отвлекаю) но что-то не идет дело. Редиректа нет, удалял для теста robots.txt из корня, и пробывал следующие конструкции в htaccess :

RewriteCond %{HTTP_HOST} ^site.ru$

RewriteRule ^robots.txt$ /robots-main.txt [L]
RewriteCond %{HTTP_HOST} ^subdomain.site.ru$
RewriteRule ^robots.txt$ /robots-subdomains.txt [L]

RewriteCond %{HTTP_HOST} ^subdomain.site.ru$

RewriteRule ^robots.txt$ /robots-subdomains.txt [L]

RewriteEngine on


RewriteCond %{HTTP_HOST} ^subdomain.site.ru [NC]
RewriteRule ^robots\.txt /robots_chelyabinsk.txt [NC,L,R=301]

RewriteBase /


RewriteCond %{HTTP_HOST} chelyabinsk\.site\.ru/.*robots\.txt$
Rewriterule ^robots.txt$ robots_chelyabinsk.txt [R=301,NC,L]
miketomlin:
mazafaka5, вам надо развести в том числе и роботс основного домена, потому что в нек. случаях наличие этого файла в корне будет делать все ваши попытки как-то использовать .htaccess абсолютно бессмысленными.

Корень является базой по умолчанию, но в общем автор написанного прав.

А почему не хотите использовать самый естественный вариант, т.е. развести поддомены по отдельным сайтам/каталогам?

Я попроще хотел бы конечное, но modx cms + webhost1 - на отдельную папку c поддомена нельзя направиться, нет будет подсайт работать.

---------- Добавлено 06.10.2017 в 12:48 ----------

miketomlin:
mazafaka5, вам надо развести в том числе и роботс основного домена, потому что в нек. ---------- Добавлено 06.10.2017 в 12:28 ----------

Host: https://<?=$_SERVER['HTTP_HOST']?>
Забыли, что переприсваивали имя хоста др. переменной? :)

Копипастил.... Не понимая. И все еще плохо понимаю, буду тщательней вникать позже седня.

---------- Добавлено 06.10.2017 в 12:48 ----------

miketomlin:

---------- Добавлено 06.10.2017 в 12:26 ----------

Х.З., текстовый контент-тайп лучше выдавать. В $_SERVER['HTTP_HOST'] может передаваться и корневой домен – сделайте хотя бы «трим точки справа». Точки в маске нужно экранировать (robots\.txt).

Подарите пожалуйтса пример строк кода, я понял но правильно сделать первый раз трудно

---------- Добавлено 06.10.2017 в 12:48 ----------

Х.З.:
вот так точно будет выдавать содержимое robots.php при запросе robots.txt, только эти записи в файле .htaccess:

RewriteEngine on

RewriteBase /
RewriteRule ^robots.txt$ robots.php

Может быть и отдает..... Но я не вижу изменений...

прямо так вверху файла .htaccess :

# MODX supports Friendly URLs via this .htaccess file. You must serve web

# pages via Apache with mod_rewrite to use this functionality, and you must
# change the file name from ht.access to .htaccess.
#
# Make sure RewriteBase points to the directory where you installed MODX.
# E.g., "/modx" if your installation is in a "modx" subdirectory.
#
# You may choose to make your URLs non-case-sensitive by adding a NC directive
# to your rule: RewriteRule ^(.*)$ index.php?q=$1 [L,QSA,NC]

RewriteEngine on
RewriteBase /
RewriteRule ^robots.txt$ robots.php

Но при заходе на Site.ru/robots.txt текст по строкам разбит

User-agent: *

Disallow:

User-agent: Yandex
Host: https://site.ru

Sitemap: https://site.ru/sitemap.xml

а при заходе на Site.ru/robots.php в одну строку:

User-agent: Yandex Host: https://site.ru Sitemap: https://site.ru/sitemap.xml
Sitealert:
Или надо
RewriteBase /
или /robots-subdomain.txt

Спасибо за пояснения. Буду разбираться... все равно сделаю

---------- Добавлено 06.10.2017 в 11:02 ----------

Х.З.:
Не нужно делать сотни разных robots файлов, достаточно одного, пример robots.php:
<?php

//код на php
$domain = $_SERVER['HTTP_HOST'];
?>
User-agent: Yandex
Host: https://<?=$_SERVER['HTTP_HOST']?>
Sitemap: https://<?=$domain?>/sitemap.xml

в htaccess
RewriteRule ^robots.txt$ robots.php

Мне тоже этот метод понравился, просто почему то не редиректит с robots txt на Роботс php

Возможно причина в других редиректах, они то работают всегда. А с файликом и так и так пробывал, и на отдельные персональные файлы отправлять, и на автоматом создавать ничего.

RewriteEngine On

RewriteBase /

RewriteRule ^photo/$ /gallery/ [R=301,L]

RewriteEngine On

RewriteCond %{HTTP_HOST} ^www.site.ru$ [NC]
RewriteCond %{REQUEST_URI} !^/robots.* # этот блок позволяет существовать robots txt по двум адресам, www.site.ru/robots.txt и просто site.ru/robots.txt ?
RewriteRule ^(.*)$ http://site.ru/$1 [R=301,L]

RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !\..{1,10}$
RewriteCond %{REQUEST_URI} !(.*)/$
RewriteRule ^(.*)$ http://www.site.ru/$1/ [L,R=301]
Wiiseacre:
Эдвард Гомез в своём докладе на "Осенней сессии 2015" предложил такой код (для его работы нужна jQuery и библиотека https://github.com/carhartl/jquery-cookie) - https://drive.google.com/file/d/0B2oq7w3WZXJvZElEUmxhRHgyelU/view?usp=sharing, он считает километраж мышки пользователя, время на странице и на сайте, процент страницы, которую проскроллил пользователь, количество просмотренных пользователем страниц.

Спасибо, это для меня. В список обучения внес все что тут узнал.

Однако много я не знаю и начну с настройки простейших целей ref goal !

А реально показывать директ объявления, собрав базу через скрипт таргета вконтакте по номерам телефонов? Сам придумал, но таргить по номерам не пробывал)

---------- Добавлено 20.12.2015 в 18:09 ----------

Может знаете бесплатные легендарные учебные материалы?

По теме продаж, рекламе, маркетингу...

Wiiseacre:
На самом деле, через тот же тег менеджер это не должно быть долго, если js учить не хотите. Ну и само собой - есть фрилансеры, а вообще - об этом обычно не парятся, раз пользователь зашел к вам - значит, скорее всего, ему что-то было нужно.

Вообще, лучше всего, конечно, делать скрипт, который по UTM-меткам будет выбирать самые конверсионные сегменты у каналов, и расставлять им разные цели, но вот это муторно.

Спасибо дружище. Хочу учить, учить и еще раз учить. Но и тэг-манагер в помощь!

Не парюсь, но четверь посещений 0 -15 секунд. Это плохо.

Буду знать что есть такие скрипты!

Wiiseacre:
"Сегментировать" - "Поведение" - "Отказы" - "Не отказ" - это в отчетах.

В целях - нужно писать скрипт, который активирует целевое событие после 15 секунд, проведённых пользователем на странице.

Спасибо, шикарный способ прокачаться по созданию скриптов!

Посоветуйте что почитать про запуск партнерки или оффера...

Есть классный товар... А знаний нет!

Всмысле одна и таже страница в индексе несколько раз, но это всего лишь старые тайтлы и УРЛ

Господа, подскажите!

У меня часто менялись УРЛ некоторых страниц.

В результате все в индесе Гугл...

Как убрать лишние с минимумом потерь? не просто удались из индекса, а так что ее вес перешел к основной (на нее кстати редирект с остальных страниц)

Как переиндексировать?

А то страницы и тайтлы годичной давности в индексе...

РАдовало: хорошая тема с конкурсами по дизайну в работе для вэб-мастера

бесит: отсутствие возможности написать

Появится ли сия радость в будущем?

Всего: 80