- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Возможно ли проверять загружаемое на сервер изображение (формата .gif), на предмет уже нахождения такого же? Надо как-то запретить заливать точно такое же изображение, которое было залито, например, другим пользователем на сайте.
Есть какие-то решения, хотя бы минимальные? )
Возможно ли проверять загружаемое изображение на сервер (формата .gif), на предмет уже нахождения такого же? Надо как-то запретить заливать точно такое же изображение, которое было залито, например, другим пользователем на сайте.
Есть какие-то решения, хотя бы минимальные? )
md5 хэш каждого изображения писать в БД или отдельный файл и сверять с базой при новой загрузке.
md5 хэш каждого изображения писать в БД или отдельный файл и сверять с базой при новой загрузке.
Если изображений на сервере будет 100500 тыщ, я так понимаю, эта проверка будет жесткая? :D
Если изображений на сервере будет 100500 тыщ, я так понимаю, эта проверка будет жесткая?
Таки да, других вариантов не вижу. Ну разве что не md5, а что-нибудь покороче :)
Вот тут в аську прилетело, какой-то ответ-вопрос. :D Я в этом дерево, может, кто-то расшифрует это все, катит оно или нет и какие "последствия" сего действа?
2. Есть варианты совпадения MD5 хеша разных файлов (редко, но есть). Может имеет смысл составлять карту RGB? (Ну не всего изображения, а какой либо его части?)
Тоже было бы интересно такое, например для фотохостинга: Фотка загружается, проверяется и если есть такаяже фотка выдается на нее ссылка, а не одну фотку по пятьсот раз держать на серве..а можно на впску в локалке поставить?, этот скрипт.
Да легче по ресурсам хранить этот дубль файла и всё. Чем вычислять и т.п.
Если изображений на сервере будет 100500 тыщ, я так понимаю, эта проверка будет жесткая? :D
если их действительно 100500 тыщ, то логичным решением будет еще на этапе загрузки делить картинки по категориям - типа, рыжие отдельно, блондинки отдельно, брюнетки отдельно
вы бы уточнили задачу т.к. если смысл "просто не допустить дублей потому что так захотелось" то согласен с мнением LEOnidUKG
Я хочу ещё добавить, если файл валяется уже пол года и никто к нему не обращается, то просто его удалять по крону. Это решит, от части, проблему с дублями.
Сделать выборку из таблицы в 100500 записей - задача не сложная даже для mysql. Да даже если их будет миллион. А если использовать хранилища типа ключ-значение с кэшированеим - выборка будет длиться микросекунды. И да. Стоимость хранения информации с каждым днем стремится к нулю, так что, можно и дубли хранить
1. получить md5 файла
2. проверить, есть ли такой файл в каталоге: /images/aa/bb/cc/aabbccddeeff0011.gif
3. если есть - значит это дубль, иначе сохраняем изображение под md5-названием
данная схема работает на десятке сайтов, нареканий пока что нет.