Kifsif

Рейтинг
69
Регистрация
23.03.2011

А где конкретно смотреть порядок применения закона?

Оптимизайка:
Kifsif,



So, any web sites are created for "personal, family, or domestic" reasons.

Так вы сами себе противоречите. Говорите - любой сайт для личных нужд. И рядом даете реестр. А в реестре том сайты, которые точно обязаны предоставить фсб-шникам возможность расшифровать все на сайте.

И процитировано плохо - выше-то указано, что если за 10000 посетителей в день перевалил, то ой, ты уже точно организатор.

А десятка тысяч посетителей - ну, у многих она есть.

И еще самое главное. В процитированном вами постановлении речь о сайтах, не взаимодействующих с юзером.

Я процитирую, что под личные цели не попадаешь, если имеются "возможности приема, передачи, доставки и (или) обработки электронных сообщений пользователей сети "Интернет", составляющих неопределенный круг лиц". Вот он пароль вылез - это сообщение же, я выше писал. Ну, вот. И приплыли.

Реестр ведется. И что? Так ты сам обязан уведомить роскомнадзор о том, что у тебя есть сайт. Исключение - сайты для личных и семейных нужд.

borisd:
А разве интернет-магазины являются организаторами распространения информации?

Владелец любого сайта является организатором распространения информации.

---------- Добавлено 15.08.2016 в 01:25 ----------

borisd:
Т.е. не смотря на то, что под закон формально подпадают почти все, в реале это касается только тех, на кого укажут пальцем.

Так когда они укажут пальцем, мы же не сможем выполнить, если заранее не подготовиться.

Логин хранится в базе в открытом виде.

Возвращаясь к теме - а как я им дам расшифровать пароль, если он необратимо зашифрован? Вот я про то и спрашиваю - что теперь, сайт переделывать? Безопасность пострадает, однако. Ну, можно секретный ключик зашить где-то, конечно. Так и будет, я думаю. Но вот типовые решения для многих CMS и фреймворков - они псу под хвост, получается.

Кстати, вы неправы насчет алгоритма. Одного названия алгоритма будет недостаточно. Им надо вскрыть шифр. А шифрование бывает стойкое. Так что не проканает - нужно им дать все для расшифровки.

И еще один нюанс. Все текущие пароли придется выкинуть нафиг. И заставить юзеров перерегиться. Нехорошо. Очень нехорошо.

А закон или приказ что оговаривают, что пицца выпадает из его сферы?

Давайте так - если у вас интернет-магазин, существуют риски парализации бизнеса путем ложного доноса. Вот одного доноса от конкурента будет достаточно, чтобы к вам пришли. И безопасникам об этом прекрасно известно. Так что какой-нибудь крупный магазин, думаю, напряжется тоже. Риски, риски.

Так что давайте будем анализировать правовое положение владельцев сайтов в целом. Мы закон обязаны соблюдать. Так ведь?

Эти правовые акты породили у меня обязанности. Под страхом наказания. Если вам обязанности без разницы, ну, поздравляю вас.

В газете как-то работал. Имел дело с правоохранителями. Они приходят, все изымают. Компы и т.п. Все. И говорят - порвем, как тузик тряпку вашу газетенку.

Тогда газета, сейчас сайт - не суть. Главное - опыт общения с правоохранителями, я его изложил.

В общем, это агония еще та. Не факт, что оживешь. Да и штраф.

Компы, кстати, не отдадут. По коап - они идут как орудие совершения правонарушения. Ну, в общем, все будет печально.

Давайте по теме. Зачем меня обсуждать.

foxi:
Чтоб сэкономить - надо делать на php mysql. Ну или на вордпрессе.

Какая разница, на чем сделан сайт. Речь не про дешевизну разработки.

Я спросил: если всю кэшатину полностью грузануть в память, сколько это будет тянуть бабла. Это можно сделать и на PHP, а БД тут вообще сбоку припеку.

Smart Shot:
Поисковой робот прекрасно ходит по страницам с canonical, об этом даже Яндекс на вебмастерской рассказывал.

Спасибо за ссылки на магазины. Буду думать дальше. Пока склоняюсь к тому, что если есть готовый модуль, можно организовать пагинацию через ресурсы. Если не найдется, ну, надо жить на гет-запросах.

По поводу робота. Да, робот ходит прекрасно. Вот что гугль пишет:

rel="next" and rel="previous" on the one hand and rel="canonical" on the other constitute independent concepts. Both declarations can be included in the same page. Взято отсюда: https://webmasters.googleblog.com/2011/09/pagination-with-relnext-and-relprev.html

Smart Shot:
У них множество параметров передается... Смотрите проекты попроще. Я бы глянул в сторону популярных коммерческих CMS в духе Битрикса.

Я битрикс не хочу. Он мне не очень подходит. Но я смотрел, например, фреймворк Ruby on Rails. Там тоже пагинация через гем will_paginate использует параметры get-запросов.

Smart Shot:

Поисковые системы все же рекомендуют использовать ЧПУ для статических страниц. На самом деле в вопросе пагинации вы также можете использовать get, ибо они не продвигаются, используется canonical на первую страницу листинга (продвигается только она).

Сейчас речь только о пагинации. Для пермалинков, конечно ЧПУ.

Smart Shot:

Но если вы будете строить весь сайт или часть его статических страниц на get-запросах - это не очень хорошо. И пользователям часть url'а не стереть и ключ туда не вписать и дублей можно нагенерировать....

Вот я и ищу примеры. И ни одного не нашел, где бы использовалось /tag/page-1/. Из заслуживающих внимание, конечно, жирненьких.

Smart Shot:

Но взять те же фильтры, есть такая штука как их оптимизация. И если вы генерируете страницу из фильтра для продвижения, то одно из требований - чпу этой страницы (можете посмотреть крупные интернет-магазины).

Посмотрел ebay, amazon, wikimart. Амазон показался хуже всего. Викимарт в этом отношении представляется более продвинутым. Но все равно - разбивка по категориям идет на ЧПУ, а фильтры - в параметры гет-запроса.

Да ладно, бог с ними, с фильтрами. Вернемся к пагинации. Есть примеры типа /tag/page-1?

Всего: 127