Мне нужно сериализовать данные, требующие высокой производительности. Отдельный поток будет получать доступ к нему каждую секунду и должен загружать данные в память. В пользовательских сеансах будет около 1000 - 10000 словарных статей (id, sessid, login date). Некоторые данные будут часто обновляться, поскольку время входа в систему имеет некоторое время.Python - лучший способ сериализации данных с высокой производительностью?
Эти данные будут переданы между сервером python и приложением Django. Я думаю использовать рассол или его более быструю версию cPickle. Я также нашел marshal.
Каков наилучший способ сделать это? Является ли cPickle достаточно эффективным? Или, может быть, маршал?
EDIT: Очень важная вещь - время доступа. Это будет сервер веб-сервера в реальном времени, поэтому мне нужны очень низкие задержки. Быстрее ли доступ к данным cPickle раз в секунду или для подключения к базе данных, например, Redis?
cPickle будет очень медленным по сравнению с redis, который предназначен прежде всего для скорости. –