- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Столкнулся с таким вопросом.
На движке будут работать два сайта с одной БД, домены разные.
Вопрос - как прописывать robots и sitemap? Физически ведь папка где они расположены - одна.
И второй вопрос - на будущее. Как по-умному организовать работу sitemap когда постоянно обновляется товарный список? Руками его обновлять постоянно нереально. Доверять ли автоматическому созданию сайтмэпа от движка или проще забить совсем на это дело?
Занятно видеть такие вопросы, учитывая что:
Консультирую по всем вопросам, связанным с запуском интернет-магазина (движки/сео
Вопрос - как прописывать robots и sitemap? Физически ведь папка где они расположены - одна.
В точности также, как работают 2 разных сайта.
Или RewriteCond %{HTTP_HOST}... Или location... Или...
Доверять ли автоматическому созданию сайтмэпа от движка
Доверять ли рекомендациям форумчан?.. Или консультантов..
robots.txt прописывается в "движке" на одном и втором сайте.
sitemap прекрасно генерируется средствами cms с заданными интервалами.
Plutishe, это понятно
но физически они находятся там же где и движок - в одной папке.
по логике robots.txt в папке может быть только ОДИН с таким названием.
как мне это скормить яндексу и гуглу - для ДВУХ сайтов?
---------- Добавлено 13.02.2014 в 10:24 ----------
В точности также, как работают 2 разных сайта.
Или RewriteCond %{HTTP_HOST}... Или location... Или...
К сожалению нет опыта работы с директивами, но статью нашел на эту тему, спасибо.
ivan-lev, ну, зачем вы так строго. Задача действительно не совсем стандартная. А точнее совсем не стандартная.
Можно прописать главный домен.
Ваши сайту поклеят ПС даже без роботка или одни из них просто выпадет.
Задача действительно не совсем стандартная. А точнее совсем не стандартная.
Ни капельки.
* есть, конечно тонкости.. если nginx статику перехватывает, например...
Ваши сайту поклеят ПС даже без роботка или одни из них просто выпадет.
Эм.. полагаю, ТС в курсе, ибо не так давно про уникальность было. Префиксы использует?..
Эм.. полагаю, ТС в курсе, ибо не так давно про уникальность было. Префиксы использует?..
Синомайзинг в реальном времени? Шикарно :)
---------- Добавлено 13.02.2014 в 12:52 ----------
Ну а по теме, если уж сильно нужно, то сделайте mod_rewrite чтобы robots.txt обрабатывался PHP файлом, и смотрите на домен. Какой домен такой файл и показывать.
В чём сложность не понимаю.
ivan-lev, не домысливайте плиз за меня то что мне нужно. темы абсолютно разные и про синонимайз я в той теме ни разу не писал, опять кто-то слишком умный за меня придумал.
Эм.. полагаю, ТС в курсе, ибо не так давно про уникальность было. Префиксы использует?..
поясните пож-та про префиксы - что это и с чем едят в данной ситуации.
сайты будут абсолютно разные, часть товаров будет похожа, возможно картинки будут одними и теми же, но контент совершенно разный.
единственно меня смущает во всем этом 1 ip и ловля афиллиата от яндекса по стуку😡
---------- Добавлено 13.02.2014 в 11:23 ----------
сделайте mod_rewrite чтобы robots.txt обрабатывался PHP файлом, и смотрите на домен. Какой домен такой файл и показывать.
В чём сложность не понимаю.
Сложность в том что я не программист:) Поэтому в мою голову не умещаются три утверждения:
1. В 1 папке может быть только 1 robots.txt
2. ПС для 1 сайта принимает только 1 файл как роботс и только с названием robots.txt
3. У меня два сайта в папке😂
И я не понимаю как php или rewrite в htaccess могут определить по какому именно сайту делает запрос к robots.txt поисковик, чтобы отдать ему нужные данные.
ivan-lev, не домысливайте плиз за меня то что мне нужно. темы абсолютно разные
я о том, что про уникальность контента Вы в курсе, т.е. такого не должно быть:
Ваши сайту поклеят ПС даже без роботка
поясните пож-та про префиксы - что это и с чем едят в данной ситуации.
два сайта с одной БД,
речь о префиксах таблиц в БД, использование которых позволяет хранить информацию о нескольких сайтах в одной БД, даже если сайты на одном движке. Пример.
единственно меня смущает во всем этом 1 ip
взять 2-й IP