для рунета цифры где-то такие:
http://www.liveinternet.ru/stat/ru/browsers.html?period=month
Интересно, что дает статистика использования браузеров в разные часы?
Можно что-то вроде этого попробовать:
<xsl:stylesheet xmlns:xsl="http://www.w3.org/1999/XSL/Transform" version="1.0"> <xsl:output method="xml" indent="no" encoding="UTF-8"/> <!-- копирует все, что не имеет другого шаблона --> <xsl:template match="* | @*"> <xsl:copy><xsl:copy-of select="@*"/><xsl:apply-templates/></xsl:copy> </xsl:template> <!-- создаем "пустые" правила для ненужных атрибутов --> <xsl:template match="@param1" /> <xsl:template match="@param2" />
Если все "красиво" у вас с точки зрения "редакционной политики" РСЯ, и вы не против откручивать поисковый Директ в "своих" результатах поиска, то попробуйте добавиться в РСЯ - если примут, ограничения в 1000 запросов не будет.
Если это не выариант, то поищите по форуму - вроде обсуждалось уже и не раз. Есть ли работающее решение - не знаю, не интересовался.
Используйте оператор rhost="ru.mysite.*" вместо host="" при формировании поискового запроса.
подробнее здесь:
http://help.yandex.ru/xml/?id=316625
http://help.yandex.ru/search/?id=481939
Версия для *nix бесплатна - GPL
Думаю, для более-менее серьезных проектов, которым "недостаточно" GCS или Яндекс.XML, root-доступ не должен быть непреодолимым припятствием :)
Думаю, если человек "сидит" на поиске от Гугла, ссылка на Яндекс его не смутит.
Нужен поиск по сайту с собственным краулером (т.е. индексирующий сайт по http|ftp) или можно обойтись поиском по БД?
С краулерами:
http://company.yandex.ru/technology/server/ (есть русская морфология)
http://mnogosearch.org/ (есть русская морфология)
http://lucene.apache.org/nutch/ (Java) (русская морфология под вопросом)
Полнотекстовый поиск по БД:
http://sphinxsearch.com/ (есть русская морфология - стемминг)
можете поизучать вот этот каталожец:
http://www.searchtools.com/tools/tools-opensource.html
А что в вашем понимании "адекватные"?
Можно ввести еще одно "измерение" рубрикации с менее глубокой вложенностю, если предметная область это позволяет. Т.е. доп. классификация по каким-то иным качественным признакам, позволяющая выделить искомую группу в меньшее число кликов. Одна из реализаций подобного решение - "облако тегов" по каждому уровню каталога. Опять же, если говорим об удобстве пользования, и если предметная область это позволяет.
Если речь об индексации, то карта сайта, rss-фиды новых материалов, ссылки на внутренние разделы с других сайтов...
Все правильно вам написали уже. Для самоуспокоения можете еще глянуть хедеры, отдаваемые для статики, хотя это и не будет гарантом того, что статика отдается самим nginx, а не проксируется, как и динамика на апач (что маловероятно и возможно только при кривых руках и абсолютном непонимании что делаешь при правке конфига). А так, судя по вашему же анализу логов, все ок.
из бесплатных в свое время рекомендовали:
http://otrs.org/
http://www.mantisbt.org/
наксколько хороши, не знаю, не пробовал.
Самое правильное рещение приняли, имхо.
На будущее, неразрывный пробел в xml можно заменить на
амперсант#160;
<!ENTITY nbsp "амперсант#160;">
ну и любой невалидный код можно поместить в секцию:
<![CDATA[ ... ...
]]>