вопрос про robots.txt

MR
На сайте с 21.11.2007
Offline
33
853

мне нужно чтобы Яша не индексировал странички вида: www.site.ru/size/88?filter=11

но при этом индексировал www.site.ru/size/88

что мне прописать в роботс.тхт для яши?? Disallow: /size/*?* так ?

Дмитрий
На сайте с 23.08.2006
Offline
199
#1
Разрабатываю и автоматизирую на php http://jonnyb.ru/
MR
На сайте с 21.11.2007
Offline
33
#2
JonnyB:
Disallow: www.site.ru/size/88?

Я имел ввиду что после последнего слеша идёт число любое, потом знак вопроса, а потом любой текст...

Дмитрий
На сайте с 23.08.2006
Offline
199
#3

не, регулярные выражения движки пока неподдерживают.

Попробуйте в шаблон движка вкрячить что-то такое (в шаблон, в хиад):


<?php
if (count($_GET) == 0 && preg_match('/^\/size\/[0-9]+?.+$/', $_SERVER['REQUEST_URI']))
echo '<mеta nаme="robots" content="noindex" />';
?>
upyrj
На сайте с 17.09.2005
Offline
140
#4

MasterRico, судя по новым правилам составления robots.txt для Яндекса, все верно.

Но ставьте это только в секции с User-agent: Yandex, а то другие могут не понять.

А вообще JonnyB дело говорит. Его вариант универсальный.

Денис Иванов Важно: обменом валют я не занимаюсь.
MR
На сайте с 21.11.2007
Offline
33
#5

Спасибо за ответы ! )

romasenco
На сайте с 04.01.2008
Offline
108
#6

кто подскажет что именно необходимо вписывать в robots.txt

достаточно просто:

User-agent: *

Disallow:

то есть получается

User-agent: * #относится ко всем роботам

Disallow: #никаких запретов

или надо еще что то там прописывать? может кто даст пример или подскажет что мне надо для обычного сайта, без различных закрытых областей, архивов и т.д.

Владислав
На сайте с 22.02.2007
Offline
186
#7
romasenco:
кто подскажет что именно необходимо вписывать в robots.txt
достаточно просто:
User-agent: *
Disallow:
то есть получается
User-agent: * #относится ко всем роботам
Disallow: #никаких запретов
или надо еще что то там прописывать? может кто даст пример или подскажет что мне надо для обычного сайта, без различных закрытых областей, архивов и т.д.

Самый хороший вариант в твоем случае не делать robots.txt , ты всё равно ничего запрещать не собираешься, просто удали этот файл - не ошибешься...

Или, если для тебя принципиален сам факт наличия robots.txt , пропиши туда что-то типа


User-agent: *
Disallow:/cgi-bin/


User-agent: *
Disallow:/install/


User-agent: *
Disallow:/admin/

но имей ввиду, что это не безопасно

Читайте книжки, больше читайте книжки на самом деле...
romasenco
На сайте с 04.01.2008
Offline
108
#8
upyrj:
MasterRico, судя по новым правилам составления robots.txt для Яндекса, все верно.

Но ставьте это только в секции с User-agent: Yandex, а то другие могут не понять.

А вообще JonnyB дело говорит. Его вариант универсальный.

а сколько будет стоить составить описание (готовый файл robots.txt) для моего сайта (простой без наворотов) ?

сам вроде все прочитал, вроде понял, но лучше когда это сделают профи

Владислав
На сайте с 22.02.2007
Offline
186
#9
romasenco:
а сколько будет стоить составить описание (готовый файл robots.txt) для моего сайта (простой без наворотов) ?
сам вроде все прочитал, вроде понял, но лучше когда это сделают профи

Если есть лишние деньги, заплати мне :) А вообще это бесплатная опция ;)

DyaDya
На сайте с 11.04.2007
Offline
147
#10
romasenco:
а сколько будет стоить составить описание (готовый файл robots.txt) для моего сайта (простой без наворотов) ?
сам вроде все прочитал, вроде понял, но лучше когда это сделают профи

Создайте файл robots.txt

с директивами:

User-agent: Yandex

HOST: ваш_домен.ру

Уверен, если вам ничего больше ненужно, то и не заморачивайтесь.

Проверить свой роботс можете здесь: http://www.yandex.ru/cgi-bin/test-robots

Выбирайте качественный хостинг (http://vashmaster.ru/informaciya/o_poleznyh_programmah/news83.php) и продвигайте сайты в СЕОПУЛЬТ (http://seopult.ru/ref.php?ref=72b5ed9561fe66a1). А на «SAPE» я в обиде :) Не упрекайте за очепятки, пишу вслепую (http://ergosolo.ru/) и также делаю сайты (http://www.vashmaster.ru/) ;)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий