estic

Рейтинг
126
Регистрация
01.10.2017
Mik Foxi #:
если тебе не единомоментно надо нагенерить тыщи сертификатов, то нет проблем
Я не про "генерацию" писал, а про обслуживание запросов к хостам.
yobss #:
Вопрос монетизации решить сложнее.
Какой монетизации? Продажа доменов не приносит доход? Или вы собрались на зачастую "пустых" доменах еще и прибыльную рекламу размещать? 😊
Mik Foxi #:
жесть, надо пилить сервис парковки срочно
Там все упирается в ресурсы. Когда на сервере десятки или сотни тысяч хостов, обслуживание HTTPS-запросов обходится дороже, чем на обычном хостинге.
Mik Foxi #:
проблемы создания ssl нет ни у кого уже много лет.

Выше писали про сервисы парковки (для продажи самого домена, а не размещения рекламы "на домене"), насколько понимаю. Есть современные сервисы, которые тем не менее не позволяют использовать HTTPS или выпустить соответствующий сертификат для парковочной страницы домена. А свой VPS за $5 не все готовы держать.

Arxidemon #:
Для домейнеров проблема актуальна уже сегодня.

Нет большой разницы между HTTP и HTTPS применительно к парковочным страницам. У меня есть возможность выпускать и прикреплять сертификат к каждой парковочной странице домена, но для подавляющего большинства (парковочных страниц) доменов я этого не делаю.

Sly32 #:
Просто написать сайт, используя какой-то фреймворк/ЦМС - тут уже денег не будет.

Верно, но исключения еще встречаются. Правда, в этом случае важной составляющей будут дизайн/верстка, так что программист может оказаться опять не у дел. Но автор, наверное, и не программист.

Кстати, шаблонность сайта в плане структуры, действий - это неплохо для пользователей. "Оригинальничать" можно за счет дизайна и содержимого. Причем заниматься оформлением в разумных пределах. Или вовсе выбрать минимализм. Он сейчас хорошо продается. Так что можно массово тиражировать каждую тему оформления, в крайнем случае меняя несколько основных кастомных свойств (палитру, шрифт и т.п.).

Dmitriy_2014 #:
короче я уже просканировал все через wget, все ОК, но все равно спасибо
Вообще странно, что вы про wget сразу не вспомнили. Это основная "рабочая лошадка" при выкачивании сайтов и т.п.


Dmitriy_2014 #:
И curl как я понял просто так из файла список URL не возьмет сама по себе.

Я вам сразу написал: PHP CLI, читаете файл (целиком или построчно) и передаете каждую строку в PHP cURL, результат сохраняете в нужном виде.

Dmitriy_2014 #:
проверьссылки имяфайла
Что значит "проверь ссылки"? Этой неопределенностью сквозило еще из первого сообщения 😊

Вы же вроде бы пробовали программировать. Можно самому написать, т.к. все просто.

...для PHP CLI.

Что касается утилит, выше упоминали "обычный" wget, который умеет читать список адресов из файла.

Можно оставить. Только слово "Главная" (и "Главный" тоже, как это делает Сбер Онлайн 😊) не пишите, а используйте, например, пиктограмму домика.
Rashp :
Я сделал конструкцию для nginx, но не знаю верно ли?
Не нужно с произвольных доменов переадресовывать на свой сайт. Можно тщательно выбирать доноров, но лучше не делать этого вовсе, т.к. там наверняка не будет ничего хорошего. Сертификат тоже "подцепите" какой-нибудь "самоподписанный".
Всего: 1158