- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет. С наступившим Новым Годом и наступащим рождеством.
Подскажите пожалуйста, на время переезда с http на https по рекомендациям Яши возникла потребность сделать (на Opencart) два зеркала и соответственно нужно реализовать 2 параллельных 301 редиректа, чтобы на обоих протоколах работал
для http все страницы с www на без www
для https все страницы с www на без www
и чтобы они нормально существовали каждый в рамках своего протокола.
Два редиректа
1 www на https без www
2 http на https
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www\.(.*)$
RewriteRule ^(.*)$ https://%1/$1 [R=301,L]
RewriteCond %{HTTPS} !=on
RewriteRule ^/?(.*) https://%{SERVER_NAME}/$1 [R=301,L]
соответственно нужно реализовать 2 параллельных 301 редиректа, чтобы на обоих протоколах работал
Не два, а один. С www на без www
Charli, зачем делать два, когда можно один? См. флаг OR к условию. Над именем хоста в подстановке для универсальности можно поколдовать, либо прописать его явно.
---------- Добавлено 07.01.2018 в 15:09 ----------
Явно собирали по частям вашу солянку: ^(.*)$ vs ^/?(.*)
Выберите что-то одно, чтобы не привносить лишнюю энтропию :)
Для более корректной склейки желательно не перенаправлять запросы к robots.txt. Я предпочитаю использовать следующую конструкцию (Nginx):
Первый блок перенаправляет запросы по HTTP с обращением по IP, по домену, по домену с www. Второй - по IP и по домену с www через HTTPS. Третий содержит уже настройки для сайта.
Чего-то запутали совсем ))) что в итоге самое правильное ?
Делайте в точности, как сказали: две непересекающиеся версии редиректа с www на без www с сохранением тек. протокола. Исключение для роботс, как выше написали, думаю, не помешает, если сможете организовать отдачу отдельной версии файла для каждого протокола (с разным значением директивы Host).
---------- Добавлено 08.01.2018 в 03:21 ----------
Чтобы не париться с универсальностью, делается в лоб:
И рядом то же самое для HTTP.
---------- Добавлено 08.01.2018 в 03:25 ----------
К сожалению mod_rewrite не понимает абс. адрес без указания схемы (//...).
:)
Исключение для роботс, как выше написали, думаю, не помешает, если сможете организовать отдачу отдельной версии файла для каждого протокола (с разным значением директивы Host).
Почему с разным Host?
И где ваше исключение для robots.txt?
что в итоге самое правильное ?
В стартовом посте задача сформулирована частично. Как будто вы не прочитали всех рекомендаций бота щукина о тормозном яндексе...
В итоге важны ответы сервера ... на ограниченное количество обращений, которыми бот всё же страдает.
две непересекающиеся версии редиректа с www на без www
Две не нужно:
чтобы на обоих протоколах работал
.
с разным значением директивы Hos
Вот этого как раз делать не нужно. Один роботс с одним Host
что в итоге самое правильное ?
Правильно - один редирект, убирающий www (а кстати, разве оперкарте это не движок делает?).
Но нужно определиться какой протокол основной и см картинку WebAlt-а.
Да, с двумя роботс я, видимо, погорячился. Немного неправильно понял написанное ТСом, наплевав при этом на здравый смысл и оф. рекомендации яши.
И где ваше исключение для robots.txt?
ТС не просил, я и не написал.
Две не нужно
Ну по одному для каждого протокола, чтобы не городить универсальный, работающий в пределах тек. протокола.