- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Купил я движок от Юми, и лишь потом узнал про гемор с тем что все сайты располагаются в одной корневой папке..
От сайтмэпа теперь придется отказаться, остается шанс что смогу воспользоваться роботсом (кроме команды Host).
Теоретически в роботке указаны относительные ссылки. Можно ли их превратить в абсолютные, чтобы указать запреты на индексацию для разных сайтов?
Может у вас еще есть идеи под такой тяжелый случай?
oleg1979,
1. Можно разбросать в разные папки, главное, что бы на одном IP.
2. И можно написать маленький скриптик на PHP, который бы в зависимости от хоста выдавал бы свой robots.txt
И в роботсе должны быть только относительные ссылки
От сайтмэпа теперь придется отказаться,
Добавьте сайты в панели вебмастеров яяндекса и гугла и пропишите произвольное назвние сайтмапа для каждого сайта.
Но лучше, как советовали выше, раскидать все сайты по разным папкам.
1. Можно разбросать в разные папки, главное, что бы на одном IP.
вы мне просто бальзам на раны льете.
2. И можно написать маленький скриптик на PHP, который бы в зависимости от хоста выдавал бы свой robots.txt
идея интересная, а можно пример?
не совсем понятно как именно скрипт должен выявлять, какой из роботсов нужно показать для робота ПС? Робот ведь не дает данные по тому какой он сайт смотрит.
oleg1979 добавил 18.12.2011 в 11:11
Добавьте сайты в панели вебмастеров яяндекса и гугла и пропишите произвольное назвние сайтмапа для каждого сайта.
Но лучше, как советовали выше, раскидать все сайты по разным папкам.
Писал на эту тему в поддержку Яндекса, Платон ответил что имя сайтмэпа должно быть строго sitemap.xml
Если ваше предложение на практике работает - получается Платон не профпригоден.
Спасибо за совет. В конечном счете по папкам самый разумный вариант.
идея интересная, а можно пример?
не совсем понятно как именно скрипт должен выявлять, какой из роботсов нужно показать для робота ПС? Робот ведь не дает данные по тому какой он сайт смотрит.
Смотрим .htaccess и видим : RewriteRule ^robots\.txt$ /sbots.php?path=$1%{QUERY_STRING} [L]
sbots.php заменяем на свой скрипт
А в скрипте пишете, что типа если это один домен, то выдать один txt файл, если другой, то другой txt файл, и соответственно сделать эти файлы txt на сервере.
Я делал типа этого:
<?php
header('Content-type: text/plain');
if(strstr($_SERVER['HTTP_HOST'], 'site1.ru')){
include ('robots-site1.txt');
}
if(strstr($_SERVER['HTTP_HOST'], 'site2.ru')){
include ('robots-site2.txt');
}
if(strstr($_SERVER['HTTP_HOST'], 'site3.ru')){
include ('robots-site3.txt');
}
?>
Смотрим .htaccess и видим : RewriteRule ^robots\.txt$ /sbots.php?path=$1%{QUERY_STRING} [L]
sbots.php заменяем на свой скрипт
А в скрипте пишете, что типа если это один домен, то выдать один txt файл, если другой, то другой txt файл, и соответственно сделать эти файлы txt на сервере.
Я делал типа этого:
большое спасибо!