В России более 132 тысяч человек долларовых миллионеров. Вроде как и предостаточно - но... :)
Я к тому, что относительность вещь такая :).
Многолетних проектов по 100 и более тысяч страниц - пусть и не по пальцам пересчитать, но мало :).
Более того - там тоже давно не создают по 1 страничке, а генерируют эту самую страничку из многих составляющих, большая часть которых - создаётся по шаблонам. Даже уникальное описание и картинка товара у какого большого интернет- магазина - всё равно будет обрамлена большей частью шаблонных структур и сгенерирована. Она не будет уникальной :).
Но даже такие сайты встречаются намного реже, чем обычные интернет магазины, что уже про них говорить? Если айхерб и тот насквозь не уникален :).
Вообще то ДДЛ это обычные сайты под авс-ки, если кто помнит ещё принцип :). Когда генерировался сайт с галереями и накрывался системой проверки возраста, куда пользователь должен был купить доступ. Потом эта схема упростилась с появлением ТГП - по сути ДДЛ, но туда ещё пользователи отправляли свои галереи - с каждым месяцев-годом процедура становилась более автоматизированной. Ну и с падением цен на трафик-железо отпала нужда кому то набивать ТГП, когда можно было сделать свою ТГП и набивать её генерируя. Развитие с картинок плавно сместилось к тубам.
Тогда же был расцвет всяких г-доров, которые генерировали всяким бредом и они неплохо лезли. Потому целое поколение просто не заморачивалось, пока гугл не подтянул свои алгоритмы, а потом большинство просто не вписалось в рынок :).
---------- Добавлено 22.05.2017 в 12:35 ----------
Наверное последние лет 15 все более-менее многостраничные сайты делаются автоматически.
Еще 15 лет назад существовали скрипты, которые генерировали галереи с превьюшками, либо каталоги и т.д. А уж последние лет 5 - так всё генерируется автоматически - всякими цмс, интернет-магазинами и т.д.
Ну а гугл... Он это тоже понимает. Что бы не втирали их сотрудники - понятно что сайт из 100-1000 страниц (не говоря уже о больших) - будет делаться по шаблонам и генерироваться. А не ручным трудом, по 1 страничке :).
Давно уже понял). Хотя и не сразу).
Где ты увидел советы? :)
Ключевое "иногда" ☝! Ибо в ПС достаточно видно много всего и без айсбергов - зачем брать сложные схемы, если там полно и простых? :)
Ну оказались не востребованными после того, как освободились :).
Рецепт не меняется уже давно - идёшь в поисковик, ищешь, делаешь так же многократно повторяя... профит... :)
Я вообще не понимаю - про какое паливо, если всё как на ладони в ПС?
Насчёт старых доменов. Жили были домены, не биты не крашены. Сделано на них чуток сайтов ддл, но так как они уже подходили к концу - счастливо и заброшены - платить за продление не было никакого желания. Прошло пол-года. Домены с большего так никто не купил. Даже в гугле страницы ещё висели. Ну вроде - чего пропадают такие хорошие и не баненые. Были куплены и восстановлены сайты на них, владелец сменился. Прошло пару недель - гугл начал их кушать, покушал и ещё через пару недель - взял и повыкидывал из выдачи. Не все - но часть.
В то же время рядом болтаются купленные с 0 - они гугла устраивают.
ВОт и сказочке конец.
У кого есть чего добавить - велком).
Всём спасибо, вопрос снят. Тему можно закрыть.
foreach ($files as $file) { copy($file, "compress.zlib://$file.gz");}
Можно ли уровень компрессии задать?
И желательно перед упаковкой прогнать его на s/[\t\r\n]//