Вот мои настройки:Как использовать хранилище Azure blob от моего клиента Hadoop на базе Linux?
- HDInsights Hadoop кластера с
wasb://mybucket
установить в качестве ФС по умолчанию. - Виртуальная машина CentOS с установленными пакетами RPP 2.2 RPM. (Назовем его client1)
То, что я хочу сделать, это:
local1 > ssh client1
client1> hadoop fs -ls/#list contents of blob storage bucket.
Я скопировал следующие ключи к /etc/hadoop/conf/core-site.xml
из колонкового site.xml на узле hdinsights головки:
- fs.defaultFs - wasb: // ...
- fs.azure.account.key.mybucket.blob.core.windows.net - случайная последовательность
- fs.azure.account.keyprovider.mybucket.blob.core.windows.net -
...ShellDecryptionKeyProvider
К сожалению, это требует ShellDecryptionKeyProvider
окликнуть. В окнах это исполняемый файл командной строки. Я не знаю, как это сделать для Linux.
Вот результат:
[[email protected] yum.repos.d]$ hadoop fs -ls/
15/03/04 23:02:12 INFO impl.MetricsConfig: loaded properties from hadoop-metrics2.properties
15/03/04 23:02:13 INFO impl.MetricsSystemImpl: Scheduled snapshot period at 10 second(s).
15/03/04 23:02:13 INFO impl.MetricsSystemImpl: azure-file-system metrics system started
ls: org.apache.hadoop.fs.azure.KeyProviderException: Script path is not specified via fs.azure.shellkeyprovider.script
Кто-нибудь удалось поговорить с хранения больших двоичных объектов с Linux машины на Azure? Как мне его настроить?
Интересное предложение, но полностью не отвечает на вопрос. –
Почему вы так думаете? Я объяснил причины, по которым зашифрованный ключ (полагающийся на ShellDecryptionKeyProvider) не будет работать напрямую, при условии альтернативы для доступа к хранилищу blob, не проходя через реализацию Hadoop wasb, а затем также предоставил способ получить реализацию Hadoop wasb, работающую на client1, используя незашифрованный ключ. – RickH
ha, пропустил этот пункт об использовании незашифрованного ключа. Возможно, это должно было быть наверху. –