az hdinsight-on-aks cluster
注意
此參考是 Azure CLI 的 hdinsightonaks 延伸模組的一部分(2.57.0 版或更高版本)。 擴充功能會在您第一次執行 az hdinsight-on-aks cluster 命令時自動安裝。 深入了解擴充功能。
此命令群組處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus
叢集作業。
命令
az hdinsight-on-aks cluster create
命令群組 'az hdinsight-on-aks cluster' 處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus
建立叢集。
az hdinsight-on-aks cluster create --cluster-name
--cluster-pool-name
--resource-group
[--application-log-std-error-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--application-log-std-out-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--assigned-identity-client-id]
[--assigned-identity-id]
[--assigned-identity-object-id]
[--authorization-group-id]
[--authorization-user-id]
[--autoscale-profile-graceful-decommission-timeout]
[--autoscale-profile-type {LoadBased, ScheduleBased}]
[--availability-zones]
[--cluster-type]
[--cluster-version]
[--cooldown-period]
[--coord-debug-port]
[--coord-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
[--coordinator-debug-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--coordinator-high-availability-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--db-connection-authentication-mode {IdentityAuth, SqlAuth}]
[--deployment-mode {Application, Session}]
[--enable-autoscale {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-la-metrics {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-log-analytics {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-prometheu {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-worker-debug {0, 1, f, false, n, no, t, true, y, yes}]
[--flink-db-auth-mode {IdentityAuth, SqlAuth}]
[--flink-hive-catalog-db-connection-password-secret]
[--flink-hive-catalog-db-connection-url]
[--flink-hive-catalog-db-connection-user-name]
[--flink-storage-key]
[--flink-storage-uri]
[--history-server-cpu]
[--history-server-memory]
[--identity-list]
[--internal-ingress {0, 1, f, false, n, no, t, true, y, yes}]
[--job-manager-cpu]
[--job-manager-memory]
[--job-spec]
[--kafka-profile]
[--key-vault-id]
[--llap-profile]
[--loadbased-config-max-nodes]
[--loadbased-config-min-nodes]
[--loadbased-config-poll-interval]
[--loadbased-config-scaling-rules]
[--location]
[--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
[--nodes]
[--num-replicas]
[--oss-version]
[--ranger-plugin-profile]
[--ranger-profile]
[--schedule-based-config-default-count]
[--schedule-based-config-schedule]
[--schedule-based-config-time-zone]
[--script-action-profiles]
[--secret-reference]
[--service-configs]
[--spark-hive-catalog-db-name]
[--spark-hive-catalog-db-password-secret]
[--spark-hive-catalog-db-server-name]
[--spark-hive-catalog-db-user-name]
[--spark-hive-catalog-key-vault-id]
[--spark-hive-catalog-thrift-url]
[--spark-storage-url]
[--ssh-profile-count]
[--stub-profile]
[--tags]
[--task-manager-cpu]
[--task-manager-memory]
[--trino-hive-catalog]
[--trino-plugins-spec]
[--trino-profile-user-plugins-telemetry-spec]
[--user-plugins-spec]
[--vm-size]
[--worker-debug-port]
[--worker-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
範例
建立簡單的 Trino 叢集。
az az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type trino --cluster-version {1.2.0} --oss-version {0.440.0} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"
建立簡單的 Flink 叢集。
az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type flink --flink-storage-uri {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {1.17.0} --node '[{"count":5,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --job-manager-cpu {1} --job-manager-memory {2000} --task-manager-cpu {6} --task-manager-memory {49016}
建立簡單的Spark叢集。
az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type spark --spark-storage-url {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {3.4.1} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000"
建立簡單的 Kafka 叢集。
az az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type kafka --cluster-version {1.2.0} --oss-version {3.6.0} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --kafka-profile '{"disk-storage":{"data-disk-size":8,"data-disk-type":"Standard_SSD_LRS"}}'
使用自訂Hive中繼存放區建立Spark叢集。
az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type spark --spark-storage-url {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {3.4.1} --node '[{"count":2,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --secret-reference '[{reference-name:sqlpassword,secret-name:sqlpassword,type:Secret}]' --key-vault-id /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.KeyVault/vaults/CLIKV --spark-hive-kv-id /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.KeyVault/vaults/CLIKV --spark-db-auth-mode SqlAuth --spark-hive-db-name {sparkhms} --spark-hive-db-secret {sqlpassword} --spark-hive-db-server {yourserver.database.windows.net} --spark-hive-db-user {username}
建立具有可用性區域的 Flink 叢集。
az hdinsight-on-aks cluster create -n {clustername} --cluster-pool-name {clusterpoolname} -g {resourcesGroup} -l {location}--cluster-type flink --flink-storage-uri {abfs://container@yourstorage.dfs.core.windows.net/} --cluster-version {1.2.0} --oss-version {1.17.0} --node '[{"count":5,"type":"worker","vm-size":"Standard_D8d_v5"}]' --identity-list '[{"client-id":"00000000-0000-0000-0000-000000000000","object-id":"00000000-0000-0000-0000-000000000000","resource-id":"/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/resourcesGroup/providers/Microsoft.ManagedIdentity/userAssignedIdentities/yourmsi","type":"cluster"}]' --authorization-user-id "00000000-0000-0000-0000-000000000000" --job-manager-cpu {1} --job-manager-memory {2000} --task-manager-cpu {6} --task-manager-memory {49016} --availability-zones [1,2]
必要參數
HDInsight 叢集的名稱。
叢集集區的名稱。
資源群組的名稱。 您可以使用 az configure --defaults group=<name>
來設定預設群組。
選擇性參數
如果已啟用應用程式標準錯誤,則為 True,否則為 false。
如果已啟用應用程式標準輸出,則為 True,否則為 false。
MSI 的 ClientId。
MSI 的 ResourceId。
MSI 的 ObjectId。
已獲授權存取數據平面的 AAD 群組識別碼。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
已獲授權存取數據平面的 AAD 用戶識別碼。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
此屬性適用於正常解除委任逾時;其預設設定為3600秒,再進行強制關機。 這是將解除委任節點轉換為 DECOMMISSIONED 之前,等待執行容器和應用程式完成的最大時間。 預設值為3600秒。 負值 (例如 -1) 會處理為無限逾時。
使用者指定要實作的自動調整類型 - 排程型或負載型。
要用於 AKS VMSS 節點的可用性區域清單。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
叢集的類型。
3/4 部分的版本。
這是冷卻期間,這是一個以秒為單位的時間週期,它會決定在規則啟動的調整活動與下一個調整活動的開始之間必須經過的時間量,而不論觸發它的規則為何。 預設值為 300 秒。
如果啟用偵錯,則為旗標。 默認值:8008。
如果暫停偵錯,則為旗標。 預設:false。
如果啟用協調器HA,則會使用具有自動故障轉移的多個協調器複本,每個前端節點各一個。 預設:false。
如果啟用協調器HA,則會使用具有自動故障轉移的多個協調器複本,每個前端節點各一個。 預設:false。
線上到 Hive 中繼存放區資料庫的驗證模式。 更多詳細數據: https://video2.skills-academy.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization。
字串屬性,表示 Flink 叢集的部署模式。 它可以有下列其中一個列舉值 => Application, Session。 預設值為 Session。
這表示是否在 AKS 叢集的 HDInsight 上啟用自動調整。
如果已啟用計量,則為 True,否則為 false。
如果叢集已啟用記錄分析,則為 True,否則為 false。
啟用叢集的 Prometheus。
如果 Trino 叢集啟用偵錯,則為旗標。 預設:false。
線上到 Hive 中繼存放區資料庫的驗證模式。 更多詳細數據: https://video2.skills-academy.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization。
來自 secretsProfile.secrets 的秘密參考名稱,其中包含資料庫連線的密碼。
Hive 中繼存放區資料庫的連接字串。
資料庫連線的用戶名稱。
只有 wasb(s) 記憶體才需要儲存金鑰。
用於儲存點和檢查點狀態的記憶體帳戶 URI。
記錄伺服器CPU計數。
記錄伺服器記憶體大小。
受控識別的清單。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
是否要使用私人IP建立叢集,而不是使用公用IP。 這個屬性必須在建立時設定。
作業管理員 CPU 計數。
作業管理員記憶體大小。
應用程式部署模式中 flink 叢集的作業規格。 即使藉由呼叫 RunJob API 來變更作業屬性,規格仍不可變,請使用 ListJob API 來取得最新的作業資訊。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
Kafka 叢集配置檔。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
儲存所有叢集特定用戶密碼的用戶名稱 金鑰保存庫。
LLAP 叢集配置檔。 支援 json-file 和 yaml-file。
用戶必須設定以負載為基礎的調整節點數目上限,以負載為基礎的調整將會使用此調整來相應增加和縮小節點數目的最小值和最大數目。
用戶必須設定以負載為基礎的調整節點數目下限,以負載為基礎的調整將會使用此調整,在節點數目下限和上限之間相應增加和相應減少。
用戶可以指定輪詢間隔,這是輪詢計量以觸發調整作業的時間週期(以秒為單位)。
調整規則。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
未指定資源所在的地理位置,將會使用資源群組的位置。
請勿等候長時間執行的作業完成。
節點定義。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
任務管理員的數目。
具有三個部分的版本。
叢集 Ranger 外掛程式設定檔。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
ranger 叢集配置檔。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
設定目前排程設定的預設節點計數。 默認節點計數會指定執行指定調整作業時預設的節點數目(相應增加/相應減少)。
這會指定要啟用排程型自動調整的排程,用戶可以選擇在排程內跨天數和時間設定多個規則(開始/結束)。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
用戶必須指定排程必須針對以排程為基礎的自動調整設定設定的時區。
文稿動作配置檔清單。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
金鑰保存庫 秘密的屬性。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
服務組態配置檔。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
資料庫名稱。
包含資料庫用戶密碼的秘密名稱。
資料庫伺服器主機。
資料庫用戶名稱。
金鑰保存庫資源識別碼。
節儉 URL。
默認記憶體 URL。
每個叢集的SSH Pod 數目。
存根叢集配置檔。 支援 json-file 和 yaml-file。
資源標籤。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
任務管理員 CPU 計數。
任務管理器記憶體大小。
Trino 叢集 Hive 目錄選項。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
Trino 使用者外掛程式規格支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
Trino 用戶遙測規格。支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
Spark 使用者外掛程式規格支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
虛擬機 SKU。
偵錯埠。 默認值:8008。
如果 Trino 叢集暫止偵錯,則為旗標。 預設:false。
全域參數
增加記錄詳細資訊,以顯示所有偵錯記錄。
顯示此說明訊息並結束。
只顯示錯誤,隱藏警告。
輸出格式。
JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/。
訂用帳戶的名稱或識別碼。 您可以使用 az account set -s NAME_OR_ID
設定預設訂用帳戶。
增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。
az hdinsight-on-aks cluster delete
命令群組 'az hdinsight-on-aks cluster' 處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus
刪除叢集。
az hdinsight-on-aks cluster delete [--cluster-name]
[--cluster-pool-name]
[--ids]
[--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
[--resource-group]
[--subscription]
[--yes]
範例
刪除叢集。
az hdinsight-on-aks cluster delete -n {clusterName} --cluster-pool-name {poolName} -g {RG}
選擇性參數
HDInsight 叢集的名稱。
叢集集區的名稱。
一或多個資源識別碼 (以空格分隔)。 它應該是完整資源識別碼,其中包含「資源標識碼」引數的所有資訊。 您應該提供 --ids 或其他「資源識別碼」引數。
請勿等候長時間執行的作業完成。
資源群組的名稱。 您可以使用 az configure --defaults group=<name>
來設定預設群組。
訂用帳戶的名稱或識別碼。 您可以使用 az account set -s NAME_OR_ID
設定預設訂用帳戶。
不提示確認。
全域參數
增加記錄詳細資訊,以顯示所有偵錯記錄。
顯示此說明訊息並結束。
只顯示錯誤,隱藏警告。
輸出格式。
JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/。
訂用帳戶的名稱或識別碼。 您可以使用 az account set -s NAME_OR_ID
設定預設訂用帳戶。
增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。
az hdinsight-on-aks cluster list
命令群組 'az hdinsight-on-aks cluster' 處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus
列出資源群組底下的 HDInsight 叢集集區。
az hdinsight-on-aks cluster list --cluster-pool-name
--resource-group
[--max-items]
[--next-token]
範例
列出叢集集區中的所有叢集。
az hdinsight-on-aks cluster list --cluster-pool-name {poolName}-g {RG}
必要參數
叢集集區的名稱。
資源群組的名稱。 您可以使用 az configure --defaults group=<name>
來設定預設群組。
選擇性參數
命令輸出中要傳回的項目總數。 如果可用的專案總數超過指定的值,則會在命令的輸出中提供令牌。 若要繼續分頁,請在後續命令的自變數中 --next-token
提供令牌值。
標記,指定要開始分頁的位置。 這是先前截斷回應中的令牌值。
全域參數
增加記錄詳細資訊,以顯示所有偵錯記錄。
顯示此說明訊息並結束。
只顯示錯誤,隱藏警告。
輸出格式。
JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/。
訂用帳戶的名稱或識別碼。 您可以使用 az account set -s NAME_OR_ID
設定預設訂用帳戶。
增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。
az hdinsight-on-aks cluster list-service-config
命令群組 'az hdinsight-on-aks cluster' 處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus
列出叢集中執行之所有服務的組態傾印。
az hdinsight-on-aks cluster list-service-config --cluster-name
--cluster-pool-name
--resource-group
[--max-items]
[--next-token]
範例
列出叢集中執行之所有服務的組態傾印。
az hdinsight-on-aks cluster list-service-config --cluster-name {clusterName} --cluster-pool-name {poolName}-g {RG}
必要參數
HDInsight 叢集的名稱。
叢集集區的名稱。
資源群組的名稱。 您可以使用 az configure --defaults group=<name>
來設定預設群組。
選擇性參數
命令輸出中要傳回的項目總數。 如果可用的專案總數超過指定的值,則會在命令的輸出中提供令牌。 若要繼續分頁,請在後續命令的自變數中 --next-token
提供令牌值。
標記,指定要開始分頁的位置。 這是先前截斷回應中的令牌值。
全域參數
增加記錄詳細資訊,以顯示所有偵錯記錄。
顯示此說明訊息並結束。
只顯示錯誤,隱藏警告。
輸出格式。
JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/。
訂用帳戶的名稱或識別碼。 您可以使用 az account set -s NAME_OR_ID
設定預設訂用帳戶。
增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。
az hdinsight-on-aks cluster resize
命令群組 'az hdinsight-on-aks cluster' 處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus
調整現有叢集的大小。
az hdinsight-on-aks cluster resize [--cluster-name]
[--cluster-pool-name]
[--ids]
[--location]
[--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
[--resource-group]
[--subscription]
[--tags]
[--target-worker-node-count]
範例
調整叢集的大小。
az hdinsight-on-aks cluster resize --cluster-name {clusterName} --cluster-pool-name {poolName}-g {RG} -l {westus3} --target-worker-node-count {6}
選擇性參數
HDInsight 叢集的名稱。
叢集集區的名稱。
一或多個資源識別碼 (以空格分隔)。 它應該是完整資源識別碼,其中包含「資源標識碼」引數的所有資訊。 您應該提供 --ids 或其他「資源識別碼」引數。
未指定資源所在的地理位置,將會使用資源群組的位置。
請勿等候長時間執行的作業完成。
資源群組的名稱。 您可以使用 az configure --defaults group=<name>
來設定預設群組。
訂用帳戶的名稱或識別碼。 您可以使用 az account set -s NAME_OR_ID
設定預設訂用帳戶。
資源標籤。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
背景工作節點的目標節點計數。
全域參數
增加記錄詳細資訊,以顯示所有偵錯記錄。
顯示此說明訊息並結束。
只顯示錯誤,隱藏警告。
輸出格式。
JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/。
訂用帳戶的名稱或識別碼。 您可以使用 az account set -s NAME_OR_ID
設定預設訂用帳戶。
增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。
az hdinsight-on-aks cluster show
命令群組 'az hdinsight-on-aks cluster' 處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus
取得 HDInsight 叢集。
az hdinsight-on-aks cluster show [--cluster-name]
[--cluster-pool-name]
[--ids]
[--resource-group]
[--subscription]
範例
取得叢集名稱為的叢集。
az hdinsight-on-aks cluster show -n {clusterName} --cluster-pool-name {poolName} -g {RG}
選擇性參數
HDInsight 叢集的名稱。
叢集集區的名稱。
一或多個資源識別碼 (以空格分隔)。 它應該是完整資源識別碼,其中包含「資源標識碼」引數的所有資訊。 您應該提供 --ids 或其他「資源識別碼」引數。
資源群組的名稱。 您可以使用 az configure --defaults group=<name>
來設定預設群組。
訂用帳戶的名稱或識別碼。 您可以使用 az account set -s NAME_OR_ID
設定預設訂用帳戶。
全域參數
增加記錄詳細資訊,以顯示所有偵錯記錄。
顯示此說明訊息並結束。
只顯示錯誤,隱藏警告。
輸出格式。
JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/。
訂用帳戶的名稱或識別碼。 您可以使用 az account set -s NAME_OR_ID
設定預設訂用帳戶。
增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。
az hdinsight-on-aks cluster update
命令群組 'az hdinsight-on-aks cluster' 處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus
更新叢集。
az hdinsight-on-aks cluster update [--add]
[--application-log-std-error-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--application-log-std-out-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--assigned-identity-client-id]
[--assigned-identity-id]
[--assigned-identity-object-id]
[--authorization-group-id]
[--authorization-user-id]
[--autoscale-profile-graceful-decommission-timeout]
[--autoscale-profile-type {LoadBased, ScheduleBased}]
[--availability-zones]
[--cluster-name]
[--cluster-pool-name]
[--cluster-version]
[--cooldown-period]
[--coord-debug-port]
[--coord-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
[--coordinator-debug-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--coordinator-high-availability-enabled {0, 1, f, false, n, no, t, true, y, yes}]
[--db-connection-authentication-mode {IdentityAuth, SqlAuth}]
[--deployment-mode {Application, Session}]
[--enable-autoscale {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-la-metrics {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-log-analytics {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-prometheu {0, 1, f, false, n, no, t, true, y, yes}]
[--enable-worker-debug {0, 1, f, false, n, no, t, true, y, yes}]
[--flink-db-auth-mode {IdentityAuth, SqlAuth}]
[--flink-hive-catalog-db-connection-password-secret]
[--flink-hive-catalog-db-connection-url]
[--flink-hive-catalog-db-connection-user-name]
[--flink-storage-key]
[--flink-storage-uri]
[--force-string {0, 1, f, false, n, no, t, true, y, yes}]
[--history-server-cpu]
[--history-server-memory]
[--identity-list]
[--ids]
[--job-manager-cpu]
[--job-manager-memory]
[--job-spec]
[--kafka-profile]
[--key-vault-id]
[--llap-profile]
[--loadbased-config-max-nodes]
[--loadbased-config-min-nodes]
[--loadbased-config-poll-interval]
[--loadbased-config-scaling-rules]
[--no-wait {0, 1, f, false, n, no, t, true, y, yes}]
[--nodes]
[--num-replicas]
[--oss-version]
[--ranger-plugin-profile]
[--ranger-profile]
[--remove]
[--resource-group]
[--schedule-based-config-default-count]
[--schedule-based-config-schedule]
[--schedule-based-config-time-zone]
[--script-action-profiles]
[--secret-reference]
[--service-configs]
[--set]
[--spark-hive-catalog-db-name]
[--spark-hive-catalog-db-password-secret]
[--spark-hive-catalog-db-server-name]
[--spark-hive-catalog-db-user-name]
[--spark-hive-catalog-key-vault-id]
[--spark-hive-catalog-thrift-url]
[--spark-storage-url]
[--ssh-profile-count]
[--stub-profile]
[--subscription]
[--tags]
[--task-manager-cpu]
[--task-manager-memory]
[--trino-hive-catalog]
[--trino-plugins-spec]
[--trino-profile-user-plugins-telemetry-spec]
[--user-plugins-spec]
[--vm-size]
[--worker-debug-port]
[--worker-debug-suspend {0, 1, f, false, n, no, t, true, y, yes}]
範例
更新叢集服務組態。
az hdinsight-on-aks cluster update -n {clusterName} --cluster-pool-name {poolName} -g {RG} -service-configs {"[{service-name:yarn-service,configs:[{component:hadoop-config-client,files:[{file-name:yarn-site.xml,values:{yarn.nodemanager.resource.memory-mb:33333}}]}]}]"}
選擇性參數
藉由指定路徑和索引鍵值組,將物件加入物件清單。 範例:--add property.listProperty <key=value、string 或 JSON 字串>。
如果已啟用應用程式標準錯誤,則為 True,否則為 false。
如果已啟用應用程式標準輸出,則為 True,否則為 false。
MSI 的 ClientId。
MSI 的 ResourceId。
MSI 的 ObjectId。
已獲授權存取數據平面的 AAD 群組識別碼。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
已獲授權存取數據平面的 AAD 用戶識別碼。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
此屬性適用於正常解除委任逾時;其預設設定為3600秒,再進行強制關機。 這是將解除委任節點轉換為 DECOMMISSIONED 之前,等待執行容器和應用程式完成的最大時間。 預設值為3600秒。 負值 (例如 -1) 會處理為無限逾時。
使用者指定要實作的自動調整類型 - 排程型或負載型。
要用於 AKS VMSS 節點的可用性區域清單。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
HDInsight 叢集的名稱。
叢集集區的名稱。
3/4 部分的版本。
這是冷卻期間,這是一個以秒為單位的時間週期,它會決定在規則啟動的調整活動與下一個調整活動的開始之間必須經過的時間量,而不論觸發它的規則為何。 預設值為 300 秒。
如果啟用偵錯,則為旗標。 默認值:8008。
如果暫停偵錯,則為旗標。 預設:false。
如果啟用協調器HA,則會使用具有自動故障轉移的多個協調器複本,每個前端節點各一個。 預設:false。
如果啟用協調器HA,則會使用具有自動故障轉移的多個協調器複本,每個前端節點各一個。 預設:false。
線上到 Hive 中繼存放區資料庫的驗證模式。 更多詳細數據: https://video2.skills-academy.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization。
字串屬性,表示 Flink 叢集的部署模式。 它可以有下列其中一個列舉值 => Application, Session。 預設值為 Session。
這表示是否在 AKS 叢集的 HDInsight 上啟用自動調整。
如果已啟用計量,則為 True,否則為 false。
如果叢集已啟用記錄分析,則為 True,否則為 false。
啟用叢集的 Prometheus。
如果 Trino 叢集啟用偵錯,則為旗標。 預設:false。
線上到 Hive 中繼存放區資料庫的驗證模式。 更多詳細數據: https://video2.skills-academy.com/en-us/azure/azure-sql/database/logins-create-manage?view=azuresql#authentication-and-authorization。
來自 secretsProfile.secrets 的秘密參考名稱,其中包含資料庫連線的密碼。
Hive 中繼存放區資料庫的連接字串。
資料庫連線的用戶名稱。
只有 wasb(s) 記憶體才需要儲存金鑰。
用於儲存點和檢查點狀態的記憶體帳戶 URI。
使用 'set' 或 'add' 時,請保留字串常值,而不是嘗試轉換成 JSON。
記錄伺服器CPU計數。
記錄伺服器記憶體大小。
受控識別的清單。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
一或多個資源識別碼 (以空格分隔)。 它應該是完整資源識別碼,其中包含「資源標識碼」引數的所有資訊。 您應該提供 --ids 或其他「資源識別碼」引數。
作業管理員 CPU 計數。
作業管理員記憶體大小。
應用程式部署模式中 flink 叢集的作業規格。 即使藉由呼叫 RunJob API 來變更作業屬性,規格仍不可變,請使用 ListJob API 來取得最新的作業資訊。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
Kafka 叢集配置檔。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
儲存所有叢集特定用戶密碼的用戶名稱 金鑰保存庫。
LLAP 叢集配置檔。 支援 json-file 和 yaml-file。
用戶必須設定以負載為基礎的調整節點數目上限,以負載為基礎的調整將會使用此調整來相應增加和縮小節點數目的最小值和最大數目。
用戶必須設定以負載為基礎的調整節點數目下限,以負載為基礎的調整將會使用此調整,在節點數目下限和上限之間相應增加和相應減少。
用戶可以指定輪詢間隔,這是輪詢計量以觸發調整作業的時間週期(以秒為單位)。
調整規則。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
請勿等候長時間執行的作業完成。
節點定義。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
任務管理員的數目。
具有三個部分的版本。
叢集 Ranger 外掛程式設定檔。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
ranger 叢集配置檔。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
從清單中移除屬性或專案。 範例:--remove property.list OR --remove 屬性ToRemove。
資源群組的名稱。 您可以使用 az configure --defaults group=<name>
來設定預設群組。
設定目前排程設定的預設節點計數。 默認節點計數會指定執行指定調整作業時預設的節點數目(相應增加/相應減少)。
這會指定要啟用排程型自動調整的排程,用戶可以選擇在排程內跨天數和時間設定多個規則(開始/結束)。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
用戶必須指定排程必須針對以排程為基礎的自動調整設定設定的時區。
文稿動作配置檔清單。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
金鑰保存庫 秘密的屬性。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
服務組態配置檔。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
指定要設定的屬性路徑和值,以更新物件。 範例:--set property1.property2=。
資料庫名稱。
包含資料庫用戶密碼的秘密名稱。
資料庫伺服器主機。
資料庫用戶名稱。
金鑰保存庫資源識別碼。
節儉 URL。
默認記憶體 URL。
每個叢集的SSH Pod 數目。
存根叢集配置檔。 支援 json-file 和 yaml-file。
訂用帳戶的名稱或識別碼。 您可以使用 az account set -s NAME_OR_ID
設定預設訂用帳戶。
資源標籤。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
任務管理員 CPU 計數。
任務管理器記憶體大小。
Hive 目錄選項。 支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
Trino 使用者外掛程式規格支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
Trino 用戶遙測規格。支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
Spark 使用者外掛程式規格支援速記語法、json-file 和 yaml-file。 請嘗試 “??” 以顯示更多。
虛擬機 SKU。
偵錯埠。 默認值:8008。
如果 Trino 叢集暫止偵錯,則為旗標。 預設:false。
全域參數
增加記錄詳細資訊,以顯示所有偵錯記錄。
顯示此說明訊息並結束。
只顯示錯誤,隱藏警告。
輸出格式。
JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/。
訂用帳戶的名稱或識別碼。 您可以使用 az account set -s NAME_OR_ID
設定預設訂用帳戶。
增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。
az hdinsight-on-aks cluster wait
命令群組 'az hdinsight-on-aks cluster' 處於預覽狀態,且正在開發中。 參考和支援層級: https://aka.ms/CLI_refstatus
將 CLI 置於等候狀態,直到符合條件為止。
az hdinsight-on-aks cluster wait [--cluster-name]
[--cluster-pool-name]
[--created]
[--custom]
[--deleted]
[--exists]
[--ids]
[--interval]
[--resource-group]
[--subscription]
[--timeout]
[--updated]
選擇性參數
HDInsight 叢集的名稱。
叢集集區的名稱。
請等候在 'Succeeded' 使用 'provisioningState' 建立。
等到條件符合自定義 JMESPath 查詢為止。 例如 provisioningState!='InProgress', instanceView.statuses[?code=='PowerState/running']。
等到刪除為止。
等候資源存在。
一或多個資源識別碼 (以空格分隔)。 它應該是完整資源識別碼,其中包含「資源標識碼」引數的所有資訊。 您應該提供 --ids 或其他「資源識別碼」引數。
輪詢間隔以秒為單位。
資源群組的名稱。 您可以使用 az configure --defaults group=<name>
來設定預設群組。
訂用帳戶的名稱或識別碼。 您可以使用 az account set -s NAME_OR_ID
設定預設訂用帳戶。
以秒為單位的等候上限。
等到 provisioningState 更新為 'Succeeded'。
全域參數
增加記錄詳細資訊,以顯示所有偵錯記錄。
顯示此說明訊息並結束。
只顯示錯誤,隱藏警告。
輸出格式。
JMESPath 查詢字串。 如需詳細資訊和範例,請參閱 http://jmespath.org/。
訂用帳戶的名稱或識別碼。 您可以使用 az account set -s NAME_OR_ID
設定預設訂用帳戶。
增加記錄詳細資訊。 使用 --debug 來取得完整偵錯記錄。