- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
сгенерилось за ночь, пакуется примерно со скоростью генерации.
сгенерилось за ночь, пакуется примерно со скоростью генерации.
Более 6000 страниц в секунду? Ну-ну.
Как думаешь сколько точек выведет cout программы на плюсах в stdout за одну секунду, даже без обращений к фс?
Или у тебя сверхэффективный многопоточный дорген?
Вопрос ко всем присутствующим. Сколько страниц обычно генерируется доргеном, в секунду?
если интересно то:
249 доров
каждый от 8к до 10к страниц
получилось около 2,3 млн страниц
пандора, сгенерилось за ночь, скорость от 50 до 100 страниц в секунду.
впс - 24 озу, интел е5 2630 6 ядер, ссд
Архивация примерно так же - 50-100 в секунду, пробовал 7zip, winrar.
zip, tar, 7zip все примерно одинаково.
чё делать хз
если интересно то:
249 доров
каждый от 8к до 10к страниц
получилось около 2,3 млн страниц
пандора, сгенерилось за ночь, скорость от 50 до 100 страниц в секунду.
впс - 24 озу, интел е5 2630 6 ядер, ссдз
Понятно. Значит, миллион не на каждом доре, а в сумме.
Тогда проще подождать наверно.
пробовал 7zip, winrar.
zip, tar, 7zip все примерно одинаково.
Так и есть, примерно одинакаво.
Если загрузка процессора при генерации не максимальная, то можно упаковывать по ходу процесса. Например, по 10 доров в архив. Тогда потерь времени почти не будет.
чё делать хз
Не делать проблему. Неужели нечем заняться, пока доры будут архивироваться?
Не делать проблему. Неужели нечем заняться, пока доры будут архивироваться?
У человека ресурс простаивает - неужели не понятно? Или тут школота одна? :)
Ведь ясно - что пока архивируется дор, то не идёт генерация).
Смотря какой разброс случайности делать в исходном материале. Но даже в одинаковых вводных - может 15 страниц в секунду быть, а может и 5 - в зависимости от проца. То есть один комп может делать 1 дор 4 дня, а другой - 10 дней.
Какое мышление :). Варианты, что могут рядом трудиться 10-20 и т.д. копий доргена не рассматриваются? :)
такое лучше локально генерировать или пофайлово в БД, оттуда простым запросом тянуть с распаковкой.
---------- Добавлено 07.06.2017 в 01:05 ----------
Илитакое решение, у меня так много старниц тянлось следующим образом.
Два файла и простейший роутер на извлечение и отдачу.
1й файл - номер позиции строки - название файла.
Поиск файла - алго бинарного поиска.
2й файл- болванка куда подряд пишутся строки запакованные gzcompress-ом.
роутер тянет индекс по uri, дальше по индексу ищет строку и распаковывает на отдачу.
Дальше три файла эти заливаешь на хост и сайт готов.
Пакуйте без сжатия, тогда скорость будет поболее, лучше просто в zip формат.
https://www.dmosk.ru/miniinstruktions.php?mini=7zip-cmd
Если ждали чтобы все это сгенерировать, придется подождать, пока упакует.
1 дор?
я же говорю у меня миллион страниц, сотни доров.
Генерировал 1000 доров по 30,000 страниц. Пандора с архивацией. 1000 * 30,000 = 30,000,000. Генерировалось меньше суток. Точно не вспомню давненько так делал, но вроде предел был 2000 доров.
Генерировал 1000 доров по 30,000 страниц. Пандора с архивацией. 1000 * 30,000 = 30,000,000. Генерировалось меньше суток. Точно не вспомню давненько так делал, но вроде предел был 2000 доров.
1000 по 30 000 и 10 по 1 000 000 = разница огромна - понятно почему.