ceph

    0зной

    1ответ

    Я использую кластер Ceph из 3 узлов на базе Ubuntu Server 14.04. На самом деле моя проблема заключается в том, что 192 группы мест размещения (pgs) находятся в статусе active + remapped. Все узлы нахо

    0зной

    1ответ

    Моя команда хочет сохранить blobs для нашего выпуска BOSH в удаленном блоб-магазине. Однако у нас есть внутренний магазин CEPH/Rados, который мы хотим использовать. Я знаю, что у Rados есть интерфейсы

    0зной

    1ответ

    У меня возникли проблемы с созданием общедоступного ковша. Я работаю в СЕРН/магазине Rados с помощью Amazon AWS-SDk V 1.60.2 Я создал ведро, похожее на многие различные учебные пособия с s3.buckets.cr

    1зной

    1ответ

    У меня есть кластер Ceph, и созданы правила, а также пулы. После слов я назначил эти пулы правилам, созданным для этого. Я хочу знать, как я могу быть уверен, что он действительно работает так, как ре

    1зной

    2ответ

    создать общественное ведро с S3 клиента с помощью COMAND: s3cmd mb s3://public_bucket --acl-public Bucket 's3://public_bucket/' created Я могу видеть это ведро с клиента (s3cmd Ls) и от Rados ГВ (с

    1зной

    1ответ

    Все еще несколько смущенно, как работают карты сокрушения Цефа, и надеялся, что кто-то может пролить некоторый свет. Вот мой Экранное дерево: [email protected] ~ $ ceph osd tree ID WEIGHT TYPE NAME

    1зной

    2ответ

    Я работаю над CentOS7 и установить Ceph ручной сборки ./autogen.sh ./configure make make install и ручной Deploy по этой ссылке http://ceph.com/docs/master/install/manual-deployment/ но цеф не су

    1зной

    2ответ

    Я развернул 6 узлов кластера хранения ceph + 1 администратор & 1 монитор. Все кажется прекрасным. Я только что создал шлюзовой узел и, кажется, будет хорошо, когда я начал процесс цеф-radosgw: [[email