DoTJ

DoTJ
Рейтинг
33
Регистрация
09.10.2005
sozon:
В связи с этим возник такой вопрос: Что делать со страницами со старыми (динамическими) адресами?

А движок у вас тот же останется?

Я к тому, что со статических адресов вы же будуте ставить внутренний редирект на старые динамические?

Если так, то тут

K. Ermakov:
301го редиректа

могут возникнуть трудности, ибо со статического УРЛа будет редирект на динамический (внутренний), а с динамического обратно на статический.

Free_head:
на чём угодно от мега программы "блокнот"

Free_head, а как можно писать на блокноте? :)

По теме:

возможно, вот это может быть полезно: http://www.w3.org/TR/wbxml/

Zhenechka18:
Что это значит?

Скорее всего, в основной выдаче вы видите кэшированную версию поиска, а в расширенной версии - версию не кешированную (т.к. в расширенном поиске слишком много параметров, чтобы делать для него кеш).

Про то, что такое кеш и что с ним связано есть тут: /ru/forum/119754

Некоторые мысли высказывались тут: http://www.ebanners.ru/viewtopic.php?t=1589

antono, вот тут, в руководстве по УРЛ преобразованиям, есть пункт "Проблема отсутствующего завершающего слэша" http://www.linuxshop.ru/lib/apache/urlpr.htm

Вот, что они предлагают:


RewriteEngine on
RewriteBase /
RewriteRule ^foo$ foo/ [R]

либо:


RewriteEngine on
RewriteBase /
RewriteCond %{REQUEST_FILENAME} -d
RewriteRule ^(.+[^/])$ $1/ [R]

Вот описание модуля mod_rewrite: http://www.egoroff.spb.ru/portfolio/apache/mod_rewrite.html

Вот рамблер об этом:


Внимание: точно так же и инструкции "Disallow: *", "Disallow: *.doc", "Disallow: /dir/*.doc" не запрещают ничего, поскольку файлов, имя которых начинается со звездочки или содержит ее, не существует! Использование регулярных выражений в строках Disallow, равно как и в файле robots.txt вообще, не предусмотрено.

http://www.rambler.ru/doc/robots.shtml

Гугл об этом:



Я не хочу перечислять все файлы, которые необходимо заблокировать. Можно ли использовать соответствие шаблону?

Да, робот Google распознает соответствия некоторым шаблонам. Это расширение стандарта, поэтому не все роботы могут ему следовать.

Соответствие последовательности символов с использованием *
Чтобы соответствовать последовательности символов, можно использовать звездочку (*). Например, для блокирования доступа ко всем вложенным каталогам, начинающимся с "private", можно использовать следующую запись:

User-Agent: Googlebot
Disallow: /private*/

Чтобы заблокировать доступ ко всем URL, включающим вопросительный знак (?), можно использовать следующую запись:

User-Agent: *
Disallow: /*?*

Соответствие последним символам URL с использованием $
Чтобы задать соответствие окончанию URL, можно использовать символ $. Например, для блокирования URL, заканчивающихся на .asp, можно использовать следующую запись:

User-Agent: Googlebot
Disallow: /*.asp$

Это соответствие шаблону можно использовать в сочетании с инструкцией Allow. Например, если ? обозначает идентификатор сеанса, можно исключить все URL с этими идентификаторами для гарантии, что робот Google не будет сканировать повторяющиеся страницы. Однако URL, заканчивающиеся на ? могут быть определенными версиями этой страницы, которые Вы не хотите включать. Для такой ситуации можно настроить файл robots.txt следующим образом:

User-Agent: *
Allow: /*?$
Disallow: /*?

Строка Disallow:/ *? будет блокировать все URL, включающие ? (точнее, он будет блокировать все URL, начинающиеся с имени домена, за которым следует любая строка, знак вопроса и любая строка).

Строка Allow: /*?$ будет разрешать все URL, заканчивающиеся на ? (точнее, она будет разрешать все URL, начинающиеся с имени домена, за которыми следует строка, завершающаяся знаком вопроса).

http://www.google.com/support/webmasters/bin/answer.py?answer=40367&ctx=sibling

Насколько я знаю, для яндекса нет разницы динамический УРЛ или статический.

Но, тем не менее, часто рекомендуют переводить УРЛы с большим количеством параметров в статический вид.

Вот доки об этом:

руководство по URL преобразованиям: http://www.linuxshop.ru/lib/apache/urlpr.htm

о модуле mod_rewrite: http://www.sit-host.com/articles/mod_rewrite.html

и на англицком: http://httpd.apache.org/docs/1.3/mod/mod_rewrite.html

Для некоторых других поисковиков разница есть (по крайней мере, они об этом говорят в своих справках)

По поводу апорта:

Документы, содержащие в Url символ "?", индексируются апортом выборочно, с использованием квотирования количества таких документов для каждого сайта. Размер квоты вычисляется автоматически в зависимости от ряда условий, в частности от индекса цитируемости сайта, и может, в частности, быть для некоторых сайтов нулевым.

http://www.aport.ru/help/?p=1

По поводу Рамблера:

Рамблер обрабатывает все "динамические" страницы с именами вида *.asp*, *.php*, *.pl*, */cgi-bin/* и т. п. для посещаемых сайтов (по данным top100), а также сайтов, содержащих уникальную информацию, полезную пользователям поисковой машины. Для остальных сайтов обрабатывается часть таких страниц.

http://www.rambler.ru/doc/faq.shtml#16

SEO-Labs, у вас личка не работает, поэтому не могли бы вы отправить информацию (УРЛ, пример размещения) о развлекательном портале на почту: dotj<dog>d-k.ru

ИМХО, более предпочтительный вариант с mod_rewrite

написать что-то вроде

RewriteRule ^/(.*)\.htm index.php?param=$1

зачем ВСЕ хтмл страницы обрабатывать пхп интерпретатором?

Заказал размещение статей у топикстартера.

Все было размещено оперативно.

Очень понравилось то, что с человеком можно договориться. Спасибо большое.

Всем рекомендую.

corpse:
так работает, а вот так нет:

Redirect /111.php?u=1 lala.html

Просто таким образом нельзя проверить содержимое QUERY_STRING (т.е. все то, что идет после знака ?), а Вы, скорее всего, это и хотели сделать.

Если хотите проверить содержимое QUERY_STRING нужно написать что-то подобное:

RewriteCond %{QUERY_STRING} ^u=1$

(что, в принципе, выше уже указали)

Всего: 216