Alex Klo

Alex Klo
Рейтинг
304
Регистрация
15.06.2006

просто пишите относительный путь от корня:

/cat/page.htm

ivany:
Адрес сайта могу скинуть в личку.

скиньте. посмотрю.

ivany:
Я даже не думал, что придется создавать такую тему с мольбой о помощи, но выхода нет.
Ситуация такая:

Вы не всю ситуацию описали... (Заказчики наезжают?)

блин, параметры в тэге позиционно независимы

если ТСу надо презерватив, то пускай смотрит в сторону /mysite.ogogo/go.php?url=http://site.ru

Mitos:
в общем я за php+mysql+кеширование

в поставленной задаче это излишне. если ТС не дополнит свои потребности.

а, кстати, кэширование где? на каком уровне? ;) то бишь, какое? :) (мне можно не отвечать)

Mitos:
у ТС 10-30 тысяч страниц
ИМХО, файлы радовать не будут

он что-то говорил про какую-то CMS.... может на Перле, или на php... или на Jave, а может на C++, или даже, упаси господи, на Delphi :)

Mitos:
как Вы с помощью ssi найдете ключевые слова в статьях и присвоите статье, на основе этих ключевых слов, определенный тег?

я поэтому и сказал: php (но в случае ТС этого, похоже, не надо)

Mitos:
скачав по ftp этот файл себе на win машину, вы это право потрете (в винде автоматом будет право на запись, а вот если закачивать этот файл на новый хостинг, то прийдется заново ставить право на запись ибо по дефолту будет "только чтение")

я с таким не встречался, и не думаю, что это частая ситуация

и зачем page.html какие-то недефолтные права?

Mitos:
кешировать результаты выполнения скрипта (php, perl), запросов к БД (запросили у mysql текст статьи, автора и прочие данные - сформировали блок "статья" - сохранили в файл, при повторном запросе страницы с этой статьей - берете данные из сформированного (кешируемого в файл) блока, а не заново мучаете mysql)

к чему это всё? (всё это обеспечивается хостингом, цепочкой прокси-серверов от хостинга к клиенту, броузером)

если у ТСа просто голые html страницы?

какое кеширование запросов? у него же не форекс!

Mitos:
а не заново мучаете mysql

я и говорю - mysql нам не нужен... как и скрипач в Кин-Дза-дза...:)

mysql автоматом тэги тоже не сформирует - для этого нужны некие действия..., которые при начальном планировании можно предусмотреть и на уровне html и php.

Mitos, я рассуждаю в пределах поставленной ТС задачи... вообще - может быть куча вариантов...

Mitos:
перелопачивать 10-30k файлов, мягко говоря, не удобно

конечно! но для этого не нужен MySQL или php, и они не помогут.

достаточно предусмотреть в шаблонах html и в содержании страниц такую возможность. А реализуется она с помощью SSI (.shtml). Правда именно тут можно использовать php.

Mitos:
целостность бэкапа большого кол-ва файлов не всегда гарантируется

она гарантируется автором - на своём HDD и т.д.

Mitos:
пользовать файловое кеширование для увеличения производительности

кешировать страницу page.html ? 😮 (вообще-то зачем? и броузер это делает и хостинг...)

хороший хостер это гарантирует, а если это не работает у других - надо менять хостинг, но я таких сегодня не представляю... ну если только домашний хостинг...

Кстати, напоминаю, ТС спрашивал, что надежнее и быстрее.

Что может быть надежнее и быстрее голого html от вебсервера хостинга к броузеру пользователя?

Только мысль... :) или почта России? :) DHL? Western Union? :D

GIGO.biz:
Все это затевается как раз для переклейки верной.

если уж так нужна переклейка, то да. Но переклейка в 99.9999% не нужна, точнее бессмысленна.

Только потеря драгоценного трафика, времени и, возможно, денег.

Я вот не знаю ни одного домена, для которого этого важно (с www или без).

Кроме зоны РФ и некоторых специальных случаев (которые даже видел, и они были оправданы, но это дело далёкого прошлого...)

Collapse:
хранить в файлах и также скриптом оттуда вытаскивать

а зачем тут скрипт? скрипт может быть нужен только чтобы положить в файл, а сам файл-то - page.html при наличии ссылки на него уже будет сам работать...

небольшой тест:

публикация страниц будет каждую минуту?

нет? - вам не нужна база данных

публикуемая страница будет проходить на проверку валидности, орфографии, наличие/отсутствия чего-то в ней?

нет? - вам не нужен серверный скрипт (php, perl и т.д.).

Итог: если сайт типа - залил и забыл (иногда поправил) - не нужно ни MySQL, ни php (и аналоги). Этим достигается надежность и быстродействие.

При этом используется http: ftp: html SSI. Всё.

Collapse:
Как раз вот встал вопрос в хранении таких количеств страниц.

в чем вопрос-то? раскидать по каталогам... и делов-то... по 100-200 страниц на каталог...

/topic1/glava1/

/topic1/glava1/page1.htm

/topic1/glava1/page2.htm

...

/topic1/glava1/pageN.htm

/topic1/glava2/

...

/topic1/glavaN/

...

/topic2/glava1/

/topic2/glava2/

...

/topic2/glavaN/

Collapse:
идеальный вариант? Какие-нибудь еще варианты имеются?

Вас не устраивает идеальный вариант? ;)

Ну, если хотите, то можно все 10К-30К страниц хранить в файле ворда на хостинге и оттуда изымать в html при каждом обращении пользователя... :)

или Вам нужен WP, Joomla или другая нынче модная у школьников хрень?

даже динамический сайт с кучей журналюг, постящих каждую минуту свои статейки на сайт можно реализовать без мускула, а, например, с помощью php, cgi, Perl и т.д. ... но это тема отдельного разговора...

Appleman, даю итеративную формулу:

[кол-во предложений на странице] * ( [текущий год] - [год начала опыта продвижения] )

точность этой формулы достаточна для получения первых хороших результатов и будет расти в процессе применения формулы.

Есть ещё универсальная формула, высказанная 2000 лет назад: ищите - и обрящете,

но её точность меньшая, и сходимость итеративного процесса большая, хотя со временем увеличивается, и даже скорость сходимости со временем опережает вышеуказанную.

Ладно уговорили, даю ещё один секретный множитель в первой формуле:

* [кол-во не-стоп-слов в предложении]

и одно условие:

[кол-во предложений на странице] > 1

Также не премину поздравить вас всех с наступившим Новым годом! :)

Учебным! И да пусть каждый новый год будет для вас учебным! :)

С сожалением вспоминаю глубину своих неучебных лет... :(

З.Ы. Нисколько не шутил.

Всего: 5585