Тут просто одна непонятка. У меня битрикс стоит. А там при регистрации можно получить исходные коды. Дак вот, за 30 секунд исходных кодов добавляется 14 мегабайт! С учетом скорости закачки по фтп - он их ни откуда не скачивает. Вот я и думаю: сам себя что ли раскодирует...
Ну можно ее порезать на категории или делать многоуровневую структуру с папками, которая будет загружаться на страницу целиком, но от пользователя часть закрывать невидимостью (как в Windows проводнике слева)
D.O., с большим таймаутом ловит, но только через 1-3 часа, в зависимости от времени суток...
А где гарантия, что в неполной странице будет ваша ссылка? Если вы имеете ввиду отрезание меню, то скрипт будет работать только под один ресурс, кроме того все-равно придется считать весь документ, перед тем, как его резать...
Хотя можено считывать документ построчно, а и ненужное выкдывать, но тогда упадет производительность и оперативка быстро кончится.
Мне кажется, что в любом случае придется считать весь документ целиком. Тем более, вы же картинки не считываете, а только html?
В битриксе можно модули докупать...
Регулярных выражений не использовал ни разу, поэтому пишу то, что пробовал.
Подписывайте пожалуйста свои варианты, а то я тоже много не знаю ;)
ну это то, что написано, только виписать перед запуском функции
$your_link=$page_url;
$p=split('/', $page_url);
$page_url='http://'.$p[1].'/robots.txt';
Спасибо ,)
Если воспринимать это как намек, то это тем более не черная оптимизация 😆 , тк сочетание методов описанных выше, не влечет за собой данного эффекта...
О как загнул :p
Пошел спать
PHPExpert, Имхо, сплитом быстрее обрабатывать большие страници (num=100 в гугл). Да и на сервак меньше нагрузка