Простите за то отвлекаю) но что-то не идет дело. Редиректа нет, удалял для теста robots.txt из корня, и пробывал следующие конструкции в htaccess :
RewriteCond %{HTTP_HOST} ^site.ru$ RewriteRule ^robots.txt$ /robots-main.txt [L] RewriteCond %{HTTP_HOST} ^subdomain.site.ru$ RewriteRule ^robots.txt$ /robots-subdomains.txt [L]
RewriteCond %{HTTP_HOST} ^subdomain.site.ru$ RewriteRule ^robots.txt$ /robots-subdomains.txt [L]
RewriteEngine on RewriteCond %{HTTP_HOST} ^subdomain.site.ru [NC] RewriteRule ^robots\.txt /robots_chelyabinsk.txt [NC,L,R=301]
RewriteBase / RewriteCond %{HTTP_HOST} chelyabinsk\.site\.ru/.*robots\.txt$ Rewriterule ^robots.txt$ robots_chelyabinsk.txt [R=301,NC,L]
Я попроще хотел бы конечное, но modx cms + webhost1 - на отдельную папку c поддомена нельзя направиться, нет будет подсайт работать.---------- Добавлено 06.10.2017 в 12:48 ----------
Host: https://<?=$_SERVER['HTTP_HOST']?>
Копипастил.... Не понимая. И все еще плохо понимаю, буду тщательней вникать позже седня.---------- Добавлено 06.10.2017 в 12:48 ----------
Подарите пожалуйтса пример строк кода, я понял но правильно сделать первый раз трудно---------- Добавлено 06.10.2017 в 12:48 ----------
RewriteEngine on RewriteBase / RewriteRule ^robots.txt$ robots.php
Может быть и отдает..... Но я не вижу изменений...
прямо так вверху файла .htaccess :
# MODX supports Friendly URLs via this .htaccess file. You must serve web # pages via Apache with mod_rewrite to use this functionality, and you must # change the file name from ht.access to .htaccess. # # Make sure RewriteBase points to the directory where you installed MODX. # E.g., "/modx" if your installation is in a "modx" subdirectory. # # You may choose to make your URLs non-case-sensitive by adding a NC directive # to your rule: RewriteRule ^(.*)$ index.php?q=$1 [L,QSA,NC] RewriteEngine on RewriteBase / RewriteRule ^robots.txt$ robots.php
Но при заходе на Site.ru/robots.txt текст по строкам разбит
User-agent: * Disallow: User-agent: Yandex Host: https://site.ru Sitemap: https://site.ru/sitemap.xml
а при заходе на Site.ru/robots.php в одну строку:
User-agent: Yandex Host: https://site.ru Sitemap: https://site.ru/sitemap.xml
Спасибо за пояснения. Буду разбираться... все равно сделаю---------- Добавлено 06.10.2017 в 11:02 ----------
<?php //код на php $domain = $_SERVER['HTTP_HOST']; ?> User-agent: Yandex Host: https://<?=$_SERVER['HTTP_HOST']?> Sitemap: https://<?=$domain?>/sitemap.xml
RewriteRule ^robots.txt$ robots.php
Мне тоже этот метод понравился, просто почему то не редиректит с robots txt на Роботс php
Возможно причина в других редиректах, они то работают всегда. А с файликом и так и так пробывал, и на отдельные персональные файлы отправлять, и на автоматом создавать ничего.
RewriteEngine On RewriteBase / RewriteRule ^photo/$ /gallery/ [R=301,L] RewriteEngine On RewriteCond %{HTTP_HOST} ^www.site.ru$ [NC] RewriteCond %{REQUEST_URI} !^/robots.* # этот блок позволяет существовать robots txt по двум адресам, www.site.ru/robots.txt и просто site.ru/robots.txt ? RewriteRule ^(.*)$ http://site.ru/$1 [R=301,L] RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_URI} !\..{1,10}$ RewriteCond %{REQUEST_URI} !(.*)/$ RewriteRule ^(.*)$ http://www.site.ru/$1/ [L,R=301]
Спасибо, это для меня. В список обучения внес все что тут узнал.
Однако много я не знаю и начну с настройки простейших целей ref goal !
А реально показывать директ объявления, собрав базу через скрипт таргета вконтакте по номерам телефонов? Сам придумал, но таргить по номерам не пробывал)---------- Добавлено 20.12.2015 в 18:09 ----------Может знаете бесплатные легендарные учебные материалы?
По теме продаж, рекламе, маркетингу...
Спасибо дружище. Хочу учить, учить и еще раз учить. Но и тэг-манагер в помощь!
Не парюсь, но четверь посещений 0 -15 секунд. Это плохо.
Буду знать что есть такие скрипты!
Спасибо, шикарный способ прокачаться по созданию скриптов!
Посоветуйте что почитать про запуск партнерки или оффера...
Есть классный товар... А знаний нет!
Всмысле одна и таже страница в индексе несколько раз, но это всего лишь старые тайтлы и УРЛ
Господа, подскажите!
У меня часто менялись УРЛ некоторых страниц.
В результате все в индесе Гугл...
Как убрать лишние с минимумом потерь? не просто удались из индекса, а так что ее вес перешел к основной (на нее кстати редирект с остальных страниц)
Как переиндексировать?
А то страницы и тайтлы годичной давности в индексе...
РАдовало: хорошая тема с конкурсами по дизайну в работе для вэб-мастера
бесит: отсутствие возможности написать
Появится ли сия радость в будущем?