seocore

seocore
Рейтинг
143
Регистрация
25.09.2006
NeMaster:
Рекомендую Алор. Только еще рано, подождите.

тоже рекомендую подождать (где-то до декабря), и ждать лучше не в рублях 🍿

RiDDi:
во-вторых почти наверняка ключ, по которому шифруется присылается извне и в вирусе его нет.

на практике это обычно работает так:

  • файл переименовывается и затирается рандомным паттерном (т.е. генерят 4-64кб паттерн-ключ и потом повторяют его непрерывно), т.е. быстро и незаметно затирают файл рандомным мусором
  • никакого ключа нет, т.е. никто и не думал о расшифровке, задача получить денег от жертвы, жертва перевела деньги - все, свободна, ... может ждать у моря погоды сколько угодно времени

в данном случае можно посоветовать только делать бэкапы, на внешний отключаемый источник, например - раз в месяц копировать все данные на внешний жесткий диск

на мой взгляд, в условиях xUSSR стоит использовать Kaspersky Internet Security (минимально) или NOD32, все остальное значительно уступает в технических возможностях, а решения от Norton, McAffee не очень актуальны для нашей географии (хотя они сопоставимы по техническому уровню), ибо появление "свежего" вируса\трояна там происходит значительно позже, чем в локальных продуктах

SeoNk:
У меня топовый хостинг, не самый дешевый тарифный план.

от движка и его возможностей скорость зависит не меньше

на вскидку, можно оптимизировать сервер:

  • SSD диски - тут все понятно
  • pagespeed (nginx/apache на выбор) - сжатие CSS/JS, рекомпрессия картинок, а также объединение их в спрайты и т.п.
  • использовать CDN для статики (т.е. тот же jQuery с Яндекса - https://tech.yandex.ru/jslibs/, вероятность того, что Ваш посетитель уже загружал этот скрипт ранее велика, а стало быть ускоряем загрузку страницы)
  • кеширование на уровне CMS (в т.ч. пользовательское кеширование в memcached/xcache/apc и т.п.)

сам же сервер желательно располагать в той географической локации, где обитает основная часть посетителей сайта 🍿

UnFeeLing:
Debian 7: apache2+nginx+mysql+xcache все с официальных источников.
Apache2 более менее конфигурируетсья как нужно, копать нужно в сторону более мощного nginx ;)

вопрос в удобстве, если это десяток своих сайтов, то да - nginx + php-fpm, это более гибкое и экономное решение, но есть же и другие ситуации

и все не так очевидно, например то же пользовательское кеширование может существенно сократить нагрузку на БД, тупо закешировав выборки из БД, в разы сократить "отрисовку" страницы, а разница между 0.1 секундой на отрисовку и 0.01 секунды - десятикратная, т.е. apache+mod_php отрисует в 10 раз больше страниц (в теории) за секунду, стало быть потенциально выдержит в 10 раз большее число конкурентных запросов к серверу, и нет смысла отказываться от оптимизации и кеширования на разных уровнях, наоборот, надо максимально использовать потенциал этих возможностей

а можно вообще подойти хардкорно и закешировать саму динамику на уровне nginx, сложив её в tmpfs, после чего уже не страшны десятки тыс. конкурентных запросов и вообще плевать на производительность в целом, но мы же не об этом? :)

Dram:
Прошу вас, не балагурить с потолка, а опираться на свои тесты максимум годовалой давности. Ubuntu Server + Nginx + php-fpm + memcache + opcache

не буду приводить сами замеры, но год назад тестировал WordPress + W3TC с различными конфигурациями ПО (вкл. nginx + php-fpm, memcache и т.п.), лучше всего показала себя схема с mod_php + xcache, тупо быстрее всех остальных решений (хотя по экономии ОЗУ конечно же совсем не то) 🍿

VGrey:
Как можно сравнивать Memcached, который работает с пользовательсткими данными, и eAccelerator, который уже давно не умеет работать с пользовательскими данными а предназначен для кеширования байт-кода? Задачи кеширования пользовательских данных и кеширования байт-кода php - разные задачи.

совершенно верно, никто же не мешает кешировать байт-код (и оптимизировать) при помощи eAccelerator'а и одновременно юзать memcache для пользовательских данных, например по кешированию байткода (в моих тестах с WP/DLE) по прежнему eAccelerator в лидерах, но в виду того, что они отказались от пользовательского кеширования (оно у них глючило), то как бы xcache стал более оптимальным выбором, если же брать стабильность, то лучше memcache юзать, но что через сокет\сеть он все равно проигрывает APC/xcache решениям в скорости

VGrey:
Так что, если задача кешировать байт-код, разрыв между eAccelerator, APC, XCache и opcache будет небольшой. Но у каждого могут быть свои "фичи", которые дают ему преимущество в том или ином конкретном случае.

в точку, там разрыв между ними уже не существенный и лучше обращать внимание на стабильность работы и удобство эксплуатации в продакшне

Kepus:
Вы считаете, что APC сначала может тормозить сайт, а через пару-тройку часов все будет отлично работать? Разве такое бывает?

Вам выше уже дали ответ, в зависимости от того, как настроен xcache/apc (сколько выделено ОЗУ под var-кеш) так и будет работать, т.е. если в кеше данные все время "вытесняются" новыми порциями данных, то мы получим непрерывные "промахи" при попытке чтения из кеша, т.е. кеш работать по факту не будет, но при этом будут лишние ПХП вызовы, что будет вызывать дополнительные тормоза, также зависит от конфигурации веб-сервера, при том же CGI/suexec режиме - пользы от APC/xcache не будет

но, если все настроено адекватно, то польза от xcache/apc/memcached в W3TC будет существенной

cheboor:
Если проэкстраполировать данные моей базы и базы Пастухова на объем в 1.4 млрд, то мы можно предположить, что найдется примерно 160-180к ключей с вхождением слова "линолеум". Что вы с ними делать будете?

все логично, экономия времени - существенный плюс, а количество ключей в базе уже не столь важно, там хоть 1 млрд, хоть 10 млрд. реальная выборка для работы будет примерно схожа, в этом плане spywords и MOAB рулят, так как там нет этой "синтетики", а реальные ключи

еще вопрос в удобстве пользования базой, опять же все упирается во время, если мне понадобиться для моих задач 2 часа вместо 15 минут, то какая бы ни была классная база, уже возникнет вопрос в целесообразности пользования этим инструментом

и я бы предпочел онлайн-решение, чем десктопного "бегемота" под сотню гигабайт на жестком диске 🍿

domen7:
чем бороться с этим всем?

переустановкой ОС с последующей установкой антивируса, и меньше устанавливать ПО с разных ресурсов не вызывающих доверие, если Вам антивирус сообщает, что ПО подозрительное, то не стоит игнорировать это предупреждение, ибо ошибка может стоить полной компрометацией всех паролей ко всем учетным записям, что гораздо печальнее, чем какие-то неудобства в виде всплывающих окон и прочих безобразий 🍿

RAS:
для веб-сервер важнее не процессор, а память и дисковая подсистема. Так что можно и на оптероне порвать i7 ;)

а можно еще nginx + кеширование динамики в рамдиск и на Atom'е порвать Xeon E5 🍿

все же зависит от конкретики применения, может вообще важна надежность и тогда десктопный Core i7 вообще можно не рассматривать

ITD:
Наверное не нужно экспериментировать с дешевыми ssd.

оба диска хороши, лучше ищите проблему в материнской плате

Всего: 1078