Используйте mysqldump, если есть возможность
пример с <H3>. Кстати, еще сформировал в сниппете вопрос/ответ
Заказал для теста копирайтик. Присланная работа меня вполне устроила, текст легкоусвояемый, раскрывает тематику статьи, которая заняла свое место на сайте :) Буду обращаться.
В то же время, не стоит давать старт, который вас никак не устраивает. А то сделают пару шагов и придется продавать
размер_файла_в_байтах / кол-во_символов_на_страницу = кол-во_страниц (для пагинации)
Для формирования страницы:
string file_get_contents ( string $filename [, bool $use_include_path = false [, resource $context [, int $offset = -1 [, int $maxlen ]]]] )
(используем $offset и $maxlen). $offset = (номер_страницы - 1) * кол-во_символов_на_страницу. $maxlen = кол-во_символов_на_страницу.
Это самое простое. Плюс я бы сделал нормальное обрезание, чтобы полслова в начале и конце не было.
P.S. Еще можно не лениться, а засунуть книгу в базу постранично статьями, красиво разбив.
Ничего понять не могу. Почему бы ТС не взять кредит равный сумме блица и не выплачивать его доходом с сайта?
Движок самописный?
Ага, в виде одной странице в индексе.
Что это за меню такое на 12к символов? Оно действительно нужно пользователю на каждой странице? Думаю, тут есть смысл пересмотреть структуру сайта.
потерто, туплю
Кажется, догнал логику Гугла. При запросе site:site.ru поиск осуществляется не по контенту, а по url'у, поэтому и выводятся ссылки на страницы, запрещенные к индексации, ибо критерий поиска удовлетворяется. По ключевой фразе такую страницу не найти, т.к. она не в индексе.
В таком случае, чеккеры количества страниц в индексе Гугла, использующие для определения "site:site.ru" врут, завышая результат.