!kt0

!kt0
Рейтинг
46
Регистрация
28.06.2006
Должность
Программист, оптимизатор, студент
Интересы
Ночь
Жизнь = эксперимент, эксперимент = жизнь. Всегда до конца.
uniks:
В любом случае кэширование тогда будет на основном сервере (на сателлитах его делать будет проблематично) и если он упадёт, то всё равно ссылок не будет.

А в чем проблема если на саттелите есть PHP? Пускай массивом в файл сохраняет и сверяет по серверному времени нужно ли апдейтить.☝

uniks:
И так нагрузка минимальна, поэтому это наверное будет лишним.

Ну если на каждом саттелите 10 человек одновремменно*на кол-во саттелитов

Можно сервак задосить ;)

Серьезных - Битрикс

Katrin Baukina:
Я часы ношу не снимая. у меня такая зелененькая в сравнении с загаром полоска под ними.

Простите за бестактность, но это у вас химические реакции с часами идут, или нормальный цвет - зеленый, а летом загар добавляется?😕

ХренРедькиНеСлаще:
Я вот как раз и спрашиваю: база админки может быть локальная? Чтобы настройками к ее доступу в инете не заниматься? И прочей ХренЗнает чем...

И воопче, мне вот mysql пофигу а даешь такую хрень как Accsess.

А если Вам нужна онлайновая хрень, то генерите и обслуживайте ее сами. Мне то она нафик не нужна (в виде удобства).

Мне интересно так, задал где что поставить, нажал кнопку пуск, дождался, что процесс пошел, отключился и пошел спать...

Понимаещь, ссылки хранятся в базе данных. Каждый раз когда пользователь заходит на твой сайт, сайт обращается как раз к этому скрипту, тот в свою очередь выбирает из базы данных все, что нужно и отсылает обратно. Поэтому компьютер со скриптом и базой данных должен постоянно находиться в инете иниаче ссылки вставляться не будут. А админка - это так, за компанию, чтобы удобно было в базе данных ссылки редактировать.

Уважаемый автор, а почему бы не добавить кэширование ссылок. Чтобы, допустим, они не при каждом заходе запрашивались, а только через определенные промежутки времени, задаваемые админом. Это вообще сведет нагрузку почти к нулю, особенно при большом кол-ве трафа на сайте☝, кроме того в случае смерти сервера с базой данных - ссылки не подохнут☝

b2evolution - хороший движок. Правда не смотрел, как там на счет взалмываний, но кол-во настроек порадовало :)

СКОРПИОН:
...более фашиствующей и человеконенавистнической идеологии создать невозможно...

Соглашусь.

Чем больше люди походят на стадо - тем проще управлять. А тех кто из него вырывается - оно само же и уничтожает или приручает. (по Ницше)

А потом будет как у нас: поносим предшественников и все вешаем на них. Только вот один нюанс - позор потом для всей нации будет, хотя об этом мало кто задумывается.

Запрещают - значит к чему-то готовят... Чтоб привыкли...

Вот так вот первоначальный вариант выглядит. Особых тормозов не замечал.

$out=array();

preg_match_all('/href="[\w]*">[\w]*</a>/xis', $contents, $out);

foreach($out[какой-то там] as $v){

$p=array();

$p=explode('"',$result);

array_push($urlres,$p[1]);

unset($p);

$p=array();

$x=array();

$p=explode('>',$result);

$x=explode('<',$p[1]);

array_push($textres,$x[0]);}

$out=array();

preg_match_all('/href="[\w]*">[\w]*</a>/xis', $contents, $out);

Вернет $out

Я имел ввиду, что уже out рубить через explode. Через регулярки не факт, что быстрее.

Можно вот так сделать:

$out=array();

$out1=array();

preg_match_all('/(?<=href=")[\w]*(?=">)/xis', $contents, $out);

preg_match_all('/(?<=">)[\w]*(?=</a>)/xis', $contents, $out1);

По идее в $out должны оказаться ссылки, а в $out1 - тексты ссылок, но на счет $out1 - не очень уверен

/href="[\w]*">[\w]*</a>/xis (возможно перед ковычками \)

$p=explode('"',$result); - в $p[1] -url

$p=explode('>',$result);

$x=explode('<',$p[1]); - $x[0] - текст ссылки

http://doorway-blog.blogspot.com/2006/08/pars-function.html - функция с регуляркой выдирает ссылки из гугли

Всего: 309