- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
здравствуйте. Есть сайт с тонной тегов которые не должны попасть в индекс.
Пример:
http://site.com/tag-нитраты
Как закрыть от индекса в роботе именно http://site.com/tag и всё что с ним связано после? После tag каждый раз другое слово.
Или как можно сделать то же только через htaccess?
Почитайте про использование robots.txt, а затем выполните анализ.
Почитайте про использование robots.txt, а затем выполните анализ.
Как я понял правильно будет:
User-agent: Googlebot
Disallow: /tag*
Host: site.com
Disallow: /tag*
Host: site.com
Это закроет только от Гугла. А для Яндекса вы не хотите закрывать?
К тому же Яндекс не прочтёт директиву Host.
Если теги не создают полные дубли материалов, то какой смысл закрывать их от индексации?
Если теги не создают полные дубли материалов, то какой смысл закрывать их от индексации?
Поддерживаю.
Логично педположить что по этой ссылке будет список статей с этим тегом.
Как по мне, лучше это реализовать не через robots.txt, а с мощью добавления мета кода
noindex,nofollow
Пример как это реализовано на моем DLE
if (
$do == 'alltags' OR /* Страница просмотра списка тегов */
) $metatags .= <<<HTML
\n<meta name="robots" content="noindex,nofollow" />
HTML;
IBakalov, Раз такой умный - дал бы ТСу лучше нормальный развернутый ответ.
А ссылки на мануал бросать на Серче уже все умеют.