- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Bomass, я ненайду где, можете привести кусочек кода.
Мне непонятно как описать такую строку /cat/?catalogue=&status=
или надо писать ?catalogue=&status=Delete и ?catalogue=&status=No, т.е. описывать каждое значение параметра, или написать ?catalogue=&status=*
Вот как? Где там написано.
FlyAway, спасибо я вобщем-то понял.
Но вот я например не хочу, чтобы пользователь знал какие у меня есть некоторые папки запрещенные, чтобы он их в robots.txt не мог увидеть.
Вот если например есть папка /catalog/ и в ней много подпапок и файлов. чтобы мне запретить все ее содержимое, мне надо в каждом файле описать мете-теги соответсвенно или есть какие-то варианты.
Гриша К., в этом случае есть несколько вариантов.
1. Запретить роботсом (тогда увидят)
2. Запретить в мете - не увидят
3. Сделать какой-нибудь доступ с паролем
вообщем тут всё в ваших руках
FlyAway, спасибо за разъяснения.
Я вот только что вот, что заметил, как же мне описать в robots.txt страницу с парметрами /cat/?catalogue=&status=, т.е. запретить надо все тсраницы где есть 'status', если catalogue= может иметь разные значения (например ?catalogue=123 или ?catalogue=proverka).
Вот например что-то типа * можно здесь применять (/cat/?catalogue=*&status=, )?
Гриша К., я советую использовать модуль mod_rewrite - помогает преобразовывать урлы, т.е. переписывать их "на лету".
читать:
http://httpd.apache.org/docs/mod/mod_rewrite.html
http://www.engelschall.com/pw/apache/rewriteguide/
http://www.egoroff.spb.ru/portfolio/apache/mod_rewrite.html
http://sitemaker.ru/technologies/webserver/mod_rewrite/
FlyAway, спасибо за информацию буду читать и разбираться.
Пока что в мета-теги запретил, надеюсь, что yandex, rambler и google не проигнорирую эту конструкцию.
Потому что, если просто добавить такую страницу на регистрацию в Яндекс, то выдается сообщение, что сртраница принята на регистрацию. Вот теперь подожду, посмотрю будет ли она индексироваться.
Disallow: status
Medreces, спасибо за ответ.
Вы имеете в вид, что для того чтобы поисковики не игнорировали роботс в метатегах нужно добавить в файл robots.txt Disallow: status, т.е.
User-agent: *
Disallow: /papka1/
Disallow: /papka2/
Disallow: status
Bomass, я ненайду где, можете привести кусочек кода.
Мне непонятно как описать такую строку /cat/?catalogue=&status=
или надо писать ?catalogue=&status=Delete и ?catalogue=&status=No, т.е. описывать каждое значение параметра, или написать ?catalogue=&status=*
Вот как? Где там написано.
Читаем официальные доки http://www.robotstxt.org/wc/norobots.html
Там все достаточно внятно про директиву Disallow написано.
"Disallow
The value of this field specifies a partial URL that is not to be visited. This can be a full path, or a partial path; any URL that starts with this value will not be retrieved. For example, Disallow: /help disallows both /help.html and /help/index.html, whereas Disallow: /help/ would disallow /help/index.html but allow /help.html."
Таким образом, в Вашей ситуации наиболее удобоваримым станет следующий вариант:
Disallow: /cat/?catalogue=&status
Roman_HuBoss, спасибо за ответ.
По ссылке я ничего не помнял.
Вот это вариант:
Disallow: /cat/?catalogue=&status
Не подойдет для такой страницы /cat/?catalogue=123&status
Использую запрет в мета-дескрипторе.
Вот если например есть папка /catalog/ и в ней много подпапок и файлов. чтобы мне запретить все ее содержимое, мне надо в каждом файле описать мете-теги соответсвенно или есть какие-то варианты
1. Запретить роботсом (тогда увидят)
2. Запретить в мете - не увидят
3. Сделать какой-нибудь доступ с паролем
4. Отдавать код ответа сервера, отличный от 200
Я вот только что вот, что заметил, как же мне описать в robots.txt страницу с парметрами /cat/?catalogue=&status=, т.е. запретить надо все тсраницы где есть 'status', если catalogue= может иметь разные значения (например ?catalogue=123 или ?catalogue=proverka).
1. поменять местами параметры и в роботсе написать
Disallow: /cat/?status=
2. if($catalogue&&$status){header("HTTP1.1 404 Not Found");};
Примерно так