- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Запретить индексировать параметры у любых страниц
например:
/?utm=321312
/?list3=2312
/service/?qwert=321
параметры могут быть любые, страницы тоже
Disallow: /?*
sndr, звездочка в конце правила не нужна - она "по умолчанию" и так.
А вот если параметры есть у подпапок - вариант Staid самый правильный: Disallow: /*? проверенно рабочий для всех роботов, понимающих регулярки в правилах robots
Из за фильтра на сайте создаются страницы с подобными урлами:
//xxx/catalog/tikhoe-vino/?CODE=vino-kr-barone-di-bernay-nero-d-avola-2014-0-75l-italiya&FILTER%5BCOUNTRY%5D=531&SECTION_CODE=tikhoe-vino&PAGEN_1=3
Получаются дубли. Их нужно исключить из индексации, делаю через robots - 2 варианта:
Disallow: /*FILTER
или
Clean-param: FILTER
Как будет правильней и почему? Или в обоих случаях ошибка.
Подскажите, пожалуйста
Я всегда делаю через Disallow
Из за фильтра на сайте создаются страницы с подобными урлами:
//xxx/catalog/tikhoe-vino/?CODE=vino-kr-barone-di-bernay-nero-d-avola-2014-0-75l-italiya&FILTER%5BCOUNTRY%5D=531&SECTION_CODE=tikhoe-vino&PAGEN_1=3
Получаются дубли. Их нужно исключить из индексации, делаю через robots - 2 варианта:
Disallow: /*FILTER
или
Clean-param: FILTER
Как будет правильней и почему? Или в обоих случаях ошибка.
Подскажите, пожалуйста
В вашем случае правильней будет добавить такую директиву:
Приветствую, какой должен быть robots.txt для 5 версии vB?😒
В основном каждый под себя делает robots. А посмотреть базу robots можно открыв популярные форумы на этом движке. Взять у них основу, а потом уже по мере необходимости добавлять свое.
В основном каждый под себя делает robots. А посмотреть базу robots можно открыв популярные форумы на этом движке. Взять у них основу, а потом уже по мере необходимости добавлять свое.
Спасибо это я пробовал делать. Но я слышал что версия vb имеет большое значение. Т.е. файл robots.txt для vb4x будет сильно отличаться от vb 5x ? Я пробовал искать форумы с моей версией движка, но файл robots там какой- то странный. Вот пример найденного:
Disallow: /wp-admin/
или
Disallow: /administration/
Sitemap: http://www.site.net/sitemap.xml
Считаю они оба не верны😕
Спасибо это я пробовал делать.
Считаю они оба не верны😕
Ты пример показываешь вообще от Wordpress.
Вот пример vBulletin
Это пример с одного популярного форума. Опять же его дорабатывали под свои нужды и тебе придется лишнее выкинуть, а свое добавить при необходимости.(в дерективе host укажи свой сайт)
Хм, странно все это. А может быть что файл robots не нужен вовсе?
Цитата с их офф форума:
You don't need a robots file for vB5.
There really doesn't need to be a robots.txt for vBulletin at this time.