Ayavryk

Ayavryk
Рейтинг
209
Регистрация
11.10.2003
xprobe:
почему он может стать неактуальным?

1. Потому что появится новая модная фишка

2. Потому что Гугл или кто-то еще из гигантов вложат деньги в рекламу альтернативы, как это было уже не раз. А заодно выкупит права на WP (тм) и прихлопнет.

3. Потому что количество уязвимостей вырастет настолько, что валить будут часто и массово.

4. Потому что WP вырастет до уровня мегакомбайна, который уже невозможно освоить любителям или начнет тормозить с обновлениями.

Да мало ли почему умирают мегапопулярные программные продукты.

GAMMA:
wordpress в топку, Max Site CMS по функционалу не хуже а лёгкость и надёжность выше!

альтернатив много, но что-то подсказывает что большинство из них умрет намного раньше.

Жизнеспособность любой CMS определяется не легкостью/надежностью, а размером комьюнити, доступностью документации, количеством плагинов и т.п. Max Site CMS в этом отношении ни разу не конкурент wordpress'у

Кроме того он построен на платформе, которая тихо-тихо идет ко дну. Когда гикнется совсем, автору не будет лень переписывать заново ядро?

Pavel_:
Неее... времена меняюццо - школьники класса до пятого стопудово недоумённо будут строить баальшие глаза: "Кто это?"...

Типа как нынешние веб-мастера. Им скажешь Nuke, а они вылупят глаза. А ведь 10 лет назад это было намного круче Jooml'ы и WordPress. По крайней мере никто из них не породил такого количества клонов и веток и устойчиво ублюдочный интерфейс, который до сих пор прослеживается в отдельных CMS.

Всего десять лет. WordPress - исполнилось пять лет, Joomla - семь, Drupal 12

Vaan32:
он как DLE и MODX будет жить вечно

Вечно живой у нас только Ленин, да и тот 88 лет гробу.

anebilitsa:
Я так понимаю это программы, которые помогают исправить проблему скорости загрузки сайта на стороне пользователя. Тоесть каждый пользователь должен установить их? ОНи на Java. Т.е. сначала надо установить Java

Когда-то юзал плагин для Firefox который позволял регулировать скорость но плагина давно нет.

Есть два других решения - типа специальные прокси, но сам ими не пользовался. Ничего сказать не могу.

http://www.fiddler2.com/fiddler2/

http://www.dallaway.com/sloppy/

lpcard:
я считаю, что данный заголовок влияет на скорость индексации, но актуален не для всех сайтов. В любом случае, лучше перебдеть :)

Я вообще-то тоже :)

shershenator:
Я мог бы попробовать php, но опять таки, как это поможет, если динамические страницы не имеют last-modified?

На php (и др.) вы сами можете формировать любые ответы сервера по любому запросу.

siv1987:
Теоретически - да, практически это туфта и не правда. .

Вопрос не про индексацию, а про качество индексации/переиндексации. Если на сайте несколько десятков-сотен тысяч страниц и у всех кривой last modify - попадание новых страниц в индекс будет идти с такой же скоростью как если last modify правильный?

LEOnidUKG:
Это туфта и не правда.

А можно пруфлинк? Я давно выпал из темы. Но когда интересовался, скорость индексации/переиндексации и даже выдача в поиске напрямую зависела от того как часто обновляется сайт и отдельные страницы. Что вполне логично. Нелогично если они от этого отказались.

shershenator:
Ну и в любом случаю, чем можно заменить ssi? Интересно.

Последний раз SSI я использовал в прошлом веке. Когда нормальный хостинг стоил ну очень дорого. Не знал что он используется до сих пор.

Попробуйте php,perl,ruby,phyton,c# вам должно понравится. Это намного проще и богачепо возможностям.

И главное это сейчас стоит дешевле бутылки пива.

1. everycookies http://samy.pl/evercookie/ - 12 способов хранения кук в самых неожиданных местах. подробности на русском здесь:

https://www.google.ru/search?q=неубиваемые+куки

2а. можно замутить что-то типа прокси. Если юзер авторизовался или выполнил какое-то действие переопределяете через js все внешние ссылки на промежуточную страницу промежуточная страница пишет в бд адрес перехода, ip и т.п. и редиректет. По адресу редиректа проверяется информация по бд и юзеру выставляется кука, а в бд запись сразу убивается

2b - то же самое что и 2а но без прокси.

Определяете уникальные параметры компьютера (броузер, плагины, шрифты, разрешение экрана, ip) и при каждом запросе пишете/ищете в бд в ограниченном временном диапазоне. Если к примеру в течение часу часть параметров совпала, значит это тот самый юзер. Вероятность совпадения параметров см. здесь: http://panopticlick.eff.org/

3 кроссайтовый Ajax и веб-сокеты HTML5. Знаю что такая возможность теоретически существует, но практически не пользовался.

4. Вспомним о самом лучшем броузере всех времен - MSIE 5.0, в котором вопреки всяким ублюдочным операм, нетскейпам, w3c и мнению массы необразованных гиков появился iframe. B iframe засовываете шпиена, который пишет любого юзера (сп. п2) в общую для всех сайтов бд. и вытаскивает его параметры если этот юзер ранее отметился.

5. Что-то такое есть у MS но оно стоит денег и вы явно не имеете с этим дело. Так же как и я.

=

Первые четыре версии с точки зрения безопасности уязвимы и от параноиков не защищают. К сожалению. Тут требуются более изощренные механизмы.

=

Во всех случаях предполагается что все сайты размещены на одной площадке

=

больная тема :(

Всего: 2264