Закон об авторском праве тут тоже скорее всего не поможет. А все потому что ничего незаконного в копировании информации НЕТ. Кроме нескольких исключений, описанных в Законе об авторском праве (смотрим внимательно что является объектом авторского права).
Можно попробовать применить понятие недобросовестной конкуренции, но это еще сложнее.
А потому, уважаемый автор, расслабьтесь.
Выложили свои тексты в открытый источник (коим является веб-сайт), значит будьте готовы что их будут копировать. Не согласны с таким положением вещей - не публикуйте свои тексты, или продавайте их с лицензионным договором.
Да, примерно так и будет сделано. Только данные будут забираться из промежуточного каталога на клиенте, куда "центр" будет пихать обновленные данные. Ну или как-то так, еще не проектировал в деталях. В любом случае спасибо за идею и частичную реализацию ))
Спасибо, посмотрю на эти тулы. Подскажите а как быть с хостингом? Поддерживаются эти средства на минимальных тарифных планах?
Уже посчитал - максимум 100 мегабайт с учетом расходов на сериализацию.
Расходы на закачку в память массива можно легко решить memcache'м.
Только чтение, модификации нет.
Подход хороший, думал об этом, спасибо.
целостность файлов не критична, это просто viewer, эталон данных хранится в другом месте.
коллизий быть не может доступ только на чтение.
накладные расходы вижу в необходимости серверу поднимать в память весь массив с диска при каждом обращении - можно порешать кэшированием в памяти, если будет критично.
Денех жалко. Сайтик этот будет жить во множественных экземпялрах на разных доменах.
Да и не вижу особого смысла преобразовывать данные в формат таблиц баз данных а потом при поиске опять формировать тот же самый пхпшный массив. Это кстати тоже накладные расходы.---------- Добавлено 10.10.2014 в 08:43 ----------
sqlite надо чтобы на хостинге был, и там тоже как-бы файл базы данных формируется, который надо хранить и заботится о его целостности.
учитывая что данных мало и запросы простые... не вижу особого смысла заморачиваться.
Да, это я понимаю. В том то и дело что ничего кроме выборки по ключу не надо. То есть структура данных такая: [key] -> [value].
Пхпшный массив отлично подходит для быстрой выборки по ключу, быстрее не надо.
Поэтому и думаю хранить все как сериализованный массив в файле. Но не уверен что прокатит)
Ну и зачем этот бред писать? Тут же тема для новичков, кто-то ведь может и не понять ваш тонкий юмор.
хотя бы тиц=10
На мой сайт таких ссылок достаточно много, давно уже обращаю на них внимание.
Вероятно по этой причине тиц=0 и трафик с яндекса падает уже несколько месяцев. При этом траф с гугла растет и пр=5.
тиц = 0, pr = 5
Это нормально?
Я как бы не заморачиваюсь, но такое поведение Яндекса слегка смущает.
За год существования СДЛ траффик с Яндекса упал с 60% до 40%, позиции по запросам тоже падают. Для гугла все наоборот.
Ничего кроме редких покупок ссылок на ГГЛ не делаю.
Надо что-то специальное для Яндекса делать, чтоб поднять тиц и выдачу? Или не стоит дергаться?