- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт - site.by, у него есть куча (более 10 тыс) поддоменов, но эти поддомены не являются полноценными сайтами - это просто страницы клиентов. Эти страницы генерируются движком и на фтп не имеют отдельных папок. Попыталась прописать в роботсе:
Disallow: /poddomen.site.by
но Яндекс не обнаружил, что поддомен закрыт от индексации.
Подскажите, пожалуйста, как правильно прописать в роботсе, что поддомен закрыт от индексации? Файл роботс находится в корневой папке самого сайта.
Судя по всему. в корне поддомена нужно всунуть robots.txt именно такого содержания:
sherry, для поддоменов роботс так же как и для доменов :)
а не с главного закрывать поддомены.
Подскажите, пожалуйста, как правильно прописать в роботсе, что поддомен закрыт от индексации? Файл роботс находится в корневой папке самого сайта
Насколько мне известно стандарт robots.txt не предусматривает использования в поле Disallow: абсолютных путей.
Воспользуйтесь метатегом robots в заголовках нужных страниц или запретите индексацию через htaccess.
Судя по всему. в корне поддомена нужно всунуть robots.txt именно такого содержания:
а не с главного закрывать поддомены.
Не нахожу я на фтп поддоменов. Только основной. В этом-то и проблема. Их больше 10-ти тыс, но на фтп я их не вижу.
или запретите индексацию через htaccess.
Подскажите, пожалуйста, как.
sherry, У вас домен с www? других нужных поддоменов кроме юзерских нет?
на этих поддоменах добавьте мета тэг
<meta name="robots" content="noindex, nofollow" />
sherry, это вопрос к хостеру, они уже покажут где чё лежит.
sherry, У вас домен с www? других нужных поддоменов кроме юзерских нет?
Домен с www, есть другие поддомены, около 15-ти.
Если стр. генерится движком и вам СОВСЕМ и вашим юзерам СОВСЕМ не нужно (есть варианты), чтобы такие стр. были в индексе, то берем программиста (или сами) и в шаблон, которым генерятся юзерские стр. вписываем замечательный мета-тег meta name="Robots" content="params"
params = noindex, nofollow - никому ничего
params = noindex, follow - это если захотите, чтобы ссылки на ваш основной сайт все же работали.
nik2019 чуть опредил
sherry, сразу после
RewriteEngine On
добавьте:
RewriteCond %{HTTP_USER_AGENT} ^yandex.*|google.*$
RewriteCond %{HTTP_HOST} !pod1.site.ru$ [NC]
RewriteCond %{HTTP_HOST} !pod2.site.ru$ [NC]
RewriteCond %{HTTP_HOST} !www.site.ru$ [NC]
RewriteCond %{HTTP_HOST} ^([a-z0-9-]+).site.ru$ [NC]
RewriteRule .* - [F]
pod1, pod2 - поддомены которые не хотите запрещать.
Проверить видят ли теперь роботы ваши поддомены можете воспользоваться этой формочкой.