!kt0

!kt0
Рейтинг
46
Регистрация
28.06.2006
Должность
Программист, оптимизатор, студент
Интересы
Ночь
Жизнь = эксперимент, эксперимент = жизнь. Всегда до конца.

можно в скрипте разбор параметря submit и в зависимости от него require

Николай В.:
Поддерживаю. Только для 8 страничек CMS вообще не нужна - достаточно php-include для шапки с меню и футера.

+ Скрипт с полем ввода html и автоматической вставкой при сохранении хедера, футера и меню - получится контент система;)

Если нужна надежная система для большого проекта - то берите битрикс, в тоже время если его использовать для маленьких проектов типа: 8 статических страничек и новости, то придется выполнить много лишней работы. Для таких целей лучше что-нибудь проще взять

Информацию об обновлении коньента точно должны передавать, иначе нерациональный расход ресурсов

Тут в принципе уже писать ничего не надо. В переменной $file_content будет запрашиваемая страничка. А дальше выгребается все, что вам нужно.

$ch = curl_init();

curl_setopt($ch, CURLOPT_URL, $url);

curl_setopt ($ch, CURLOPT_POST, 1);

curl_setopt ($ch, CURLOPT_POSTFIELDS, $post_data);

curl_setopt ($ch, CURLOPT_COOKIEJAR, dirname().'/cookie.txt');

curl_setopt ($ch, CURLOPT_RETURNTRANSFER, 1);

curl_setopt($ch, CURLOPT_USERAGENT, "User-Agent: Mozilla/4.0 compatible; MSIE 5.01; Widows NT)");

$file_content = curl_exec ($ch);

curl_close ($ch);

На самом деле я воспользовался поиском по умаксфоруму ;)

PS: Извините, ребята, времени нету совсем. В принципе, всего приведенного выше и начальных знаний PHP достаточно.

Стандартная тенденция. Извините за самопиар - на блоге у себя постоянно пишу. Обычно после 1000-1500 на 3-5 дней улетает в ж..., а потом вылезает оттуда на более высокие позиции. Подождите немного. :)

Как мне кажется срабатывает ключ заспамленности запроса. Как вы думаете? 😕

даже больше:

$ch = curl_init();

curl_setopt($ch, CURLOPT_URL, $url);

curl_setopt($ch, CURLOPT_HEADER, 1);

curl_setopt($ch, CURLOPT_NOBODY, 0);

curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);

curl_setopt($ch, CURLOPT_REFERER, $url);

curl_setopt($ch, CURLOPT_USERAGENT, "User-Agent: Mozilla/4.0 compatible; MSIE 5.01; Widows NT)");

curl_setopt($ch, CURLOPT_TIMEOUT, 10);

$file_content = curl_exec($ch);

M0DeSTix:
Referer (откуда мы пришли) и User-Agent (Браузер), при стандартном запросе с сервера, будут отсутствовать

curl_setopt($ch, CURLOPT_REFERER,$url);

curl_setopt($ch, CURLOPT_USERAGENT, "User-Agent: Mozilla/4.0 compatible; MSIE 5.01; Widows NT)");

msv:
Там у них вроде прокси (кэширования) сделано... т.е. например, зашёл на страницу медиа-бот адсенса и сохранил страницу на сервере, поисковый бот может взять версию из кеша, а не заходить к вам на сайт...
Таким образом, возможна ситуация, когда явных заходов гугла может и не быть, но страницы в индексе будут...

Вот о чем я и говорил. Разумный расход ресурсов. Ситуация такая, что бот адсенса чаще проверяет на обновления контента и, соответственно, отправляет инфу об изменении контента обычному боту.

Извиняюсь за самопиар. Мой блог переиндексируется раз в 2 дня. Без адсенса - иногода больше недели

Всего: 309