А где конкретно смотреть порядок применения закона?
Так вы сами себе противоречите. Говорите - любой сайт для личных нужд. И рядом даете реестр. А в реестре том сайты, которые точно обязаны предоставить фсб-шникам возможность расшифровать все на сайте.
И процитировано плохо - выше-то указано, что если за 10000 посетителей в день перевалил, то ой, ты уже точно организатор.
А десятка тысяч посетителей - ну, у многих она есть.
И еще самое главное. В процитированном вами постановлении речь о сайтах, не взаимодействующих с юзером.
Я процитирую, что под личные цели не попадаешь, если имеются "возможности приема, передачи, доставки и (или) обработки электронных сообщений пользователей сети "Интернет", составляющих неопределенный круг лиц". Вот он пароль вылез - это сообщение же, я выше писал. Ну, вот. И приплыли.
Реестр ведется. И что? Так ты сам обязан уведомить роскомнадзор о том, что у тебя есть сайт. Исключение - сайты для личных и семейных нужд.
Владелец любого сайта является организатором распространения информации.---------- Добавлено 15.08.2016 в 01:25 ----------
Так когда они укажут пальцем, мы же не сможем выполнить, если заранее не подготовиться.
Логин хранится в базе в открытом виде.
Возвращаясь к теме - а как я им дам расшифровать пароль, если он необратимо зашифрован? Вот я про то и спрашиваю - что теперь, сайт переделывать? Безопасность пострадает, однако. Ну, можно секретный ключик зашить где-то, конечно. Так и будет, я думаю. Но вот типовые решения для многих CMS и фреймворков - они псу под хвост, получается.
Кстати, вы неправы насчет алгоритма. Одного названия алгоритма будет недостаточно. Им надо вскрыть шифр. А шифрование бывает стойкое. Так что не проканает - нужно им дать все для расшифровки.
И еще один нюанс. Все текущие пароли придется выкинуть нафиг. И заставить юзеров перерегиться. Нехорошо. Очень нехорошо.
А закон или приказ что оговаривают, что пицца выпадает из его сферы?
Давайте так - если у вас интернет-магазин, существуют риски парализации бизнеса путем ложного доноса. Вот одного доноса от конкурента будет достаточно, чтобы к вам пришли. И безопасникам об этом прекрасно известно. Так что какой-нибудь крупный магазин, думаю, напряжется тоже. Риски, риски.
Так что давайте будем анализировать правовое положение владельцев сайтов в целом. Мы закон обязаны соблюдать. Так ведь?
Эти правовые акты породили у меня обязанности. Под страхом наказания. Если вам обязанности без разницы, ну, поздравляю вас.
В газете как-то работал. Имел дело с правоохранителями. Они приходят, все изымают. Компы и т.п. Все. И говорят - порвем, как тузик тряпку вашу газетенку.
Тогда газета, сейчас сайт - не суть. Главное - опыт общения с правоохранителями, я его изложил.
В общем, это агония еще та. Не факт, что оживешь. Да и штраф.
Компы, кстати, не отдадут. По коап - они идут как орудие совершения правонарушения. Ну, в общем, все будет печально.
Давайте по теме. Зачем меня обсуждать.
Какая разница, на чем сделан сайт. Речь не про дешевизну разработки.
Я спросил: если всю кэшатину полностью грузануть в память, сколько это будет тянуть бабла. Это можно сделать и на PHP, а БД тут вообще сбоку припеку.
Спасибо за ссылки на магазины. Буду думать дальше. Пока склоняюсь к тому, что если есть готовый модуль, можно организовать пагинацию через ресурсы. Если не найдется, ну, надо жить на гет-запросах.
По поводу робота. Да, робот ходит прекрасно. Вот что гугль пишет:
rel="next" and rel="previous" on the one hand and rel="canonical" on the other constitute independent concepts. Both declarations can be included in the same page. Взято отсюда: https://webmasters.googleblog.com/2011/09/pagination-with-relnext-and-relprev.html
Я битрикс не хочу. Он мне не очень подходит. Но я смотрел, например, фреймворк Ruby on Rails. Там тоже пагинация через гем will_paginate использует параметры get-запросов.
Сейчас речь только о пагинации. Для пермалинков, конечно ЧПУ.
Вот я и ищу примеры. И ни одного не нашел, где бы использовалось /tag/page-1/. Из заслуживающих внимание, конечно, жирненьких.
Посмотрел ebay, amazon, wikimart. Амазон показался хуже всего. Викимарт в этом отношении представляется более продвинутым. Но все равно - разбивка по категориям идет на ЧПУ, а фильтры - в параметры гет-запроса.
Да ладно, бог с ними, с фильтрами. Вернемся к пагинации. Есть примеры типа /tag/page-1?