- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Суть:
На сайте есть страницы вида /page.php, которые полностью дублируют страницы /page.html.
Соответственно нужно прописать правило, которое запретит индексировать страницы /page.php.
Я понимаю как запретить какую то конкретную страницу, но как запретить индексировать все страницы, заканчивающиеся на .php так чтобы при этом страницы .html не затронуть?
И возможно нужно что то прописать в .htaccess, чтобы эти дубли не плодились?
Конечно, логичнее, чтобы их вообще не было.
Конечно, логичнее, чтобы их вообще не было.
Конечно логичнее. И для этого нужно создать какое то правило в htaccess.
Я так понимаю должно быть примерно это:
RewriteCond %{REQUEST_FILENAME} !-f
RewriteRule ^([a-zA-Z0-9_-]{1,225}).html$ $1.php [L]
RewriteRule ^([a-zA-Z0-9_-]{1,225}).htm$ $1.php [L]
Но насколько это верно не знаю, надеюсь на помощь знатоков.
Разрешения и запрещения на индексацию берутся всеми поисковыми системами из файла robots.txt, находящегося в корневом каталоге сервера. Запрет на индексацию ряда страниц может появиться, например, из соображений секретности или из желания не индексировать одинаковые документы в разных кодировках. Чем меньше ваш сервер, тем быстрее робот его обойдет. Поэтому запретите в файле robots.txt все документы, которые не имеет смысла индексировать (например, файлы статистики или списки файлов в директориях). Обратите особое внимание на CGI или ISAPI скрипты - робот индексирует их наравне с другими документами.
Разрешения и запрещения на индексацию берутся всеми поисковыми системами из файла robots.txt, находящегося в корневом каталоге сервера. Запрет на индексацию ряда страниц может появиться, например, из соображений секретности или из желания не индексировать одинаковые документы в разных кодировках. Чем меньше ваш сервер, тем быстрее робот его обойдет. Поэтому запретите в файле robots.txt все документы, которые не имеет смысла индексировать (например, файлы статистики или списки файлов в директориях). Обратите особое внимание на CGI или ISAPI скрипты - робот индексирует их наравне с другими документами.
Спасибо за информацию, но я совсем о другом спрашивал
Игорь Скляр, что мешает сделать так?:
Disallow: /*.php
Это заперт на индексацию всех ссылок которые содержат буквы php.