0

Я использую развертывание Kubernetes с постоянным томом для запуска моего приложения, как этот пример; https://github.com/kubernetes/kubernetes/tree/master/examples/mysql-wordpress-pd , но когда я пытаюсь добавить больше реплик или автомасштабирование, все новые стручки пытаются подключиться к одному и тому же тому. Как я могу автоматически создавать новые тома для каждого нового модуля., Например statefulsets (petsets), могут это сделать.Автомасштабируемый объем и стручки одновременно (кубернеты)

+0

PetSets (или StatefulSets в Kubernetes 1.5) предназначены для решения этой проблемы .... почему разве вы их не используете? –

+0

Я просто хочу знать, можно ли это сделать с помощью «Развертывания» и использовать что-то вроде «volumeClaimTemplates» для автоматического создания новых томов, которые PetSets/StatefulSets используют – montatich

+0

@montatich. Вы не можете сделать это с помощью Deployment. Развертывания управляют ReplicaSets, которые используются для приложений Stateless, которым обычно не нужен доступ к определенному хранилищу. Правильным решением будет StatefulSets или несколько ReplicaSets, подключающихся к их собственному хранилищу. –

ответ

0

Вывод, который я сделал для K8S 1.6, вы не можете. Однако вы можете использовать NFS. Если, например, CrateDB, ваш кластер может создать папку для каждого узла под монтированием тома, тогда вы можете автоматически масштабировать. Таким образом, я автоматически масштаб CrateDB в качестве развертывания, используя эту конфигурацию:

https://github.com/erik777/kubernetes-cratedb

, который опирается на NFS-сервер, который я раскрываю как RC с ПВХ/PV:

SAME_BASE/kubernetes- nfs-server

В моем списке TODO есть расширенные файловые системы, такие как GluterFS. Для развертывания K8S ваш выбор файловой системы - это ваше средство.

Вы также можете задействовать SIGs масштабируемости и хранения в сообществе K8S, чтобы помочь определить приоритет этого прецедента. Добавление возможности к K8S устраняет необходимость решения кластеризации для разделения узлов на общем томе, а также предотвращает введение дополнительных точек отказа между кластерным приложением и PV.

GitHub kubernetes/сообщества

Будем надеяться, что мы можем увидеть решение K8S OTB на 2,0.

(Примечание: Если бы изменить 2 из ссылок GitHub, потому что у меня нет «10 репутации»)

+0

спасибо за все ваши баллы, сообщали, и я очень ценю помощь – montatich