AzureDisk

AzureDisk 爲 Azure 上面運行的虛擬機提供了彈性塊存儲服務,它以 VHD 的形式掛載到虛擬機中,並可以在 Kubernetes 容器中使用。AzureDisk 優點是性能高,特別是 Premium Storage 提供了非常好的性能;其缺點是不支持共享,只可以用在單個 Pod 內。

根據配置的不同,Kubernetes 支持的 AzureDisk 可以分爲以下幾類

  • Managed Disks: 由 Azure 自動管理磁盤和存儲賬戶

  • Blob Disks:

    • Dedicated (默認):爲每個 AzureDisk 創建單獨的存儲賬戶,當刪除 PVC 的時候刪除該存儲賬戶

    • Shared:AzureDisk 共享 ResourceGroup 內的同一個存儲賬戶,這時刪除 PVC 不會刪除該存儲賬戶

注意:

  • AzureDisk 的類型必須跟 VM OS Disk 類型一致,即要麼都是 Manged Disks,要麼都是 Blob Disks。當兩者不一致時,AzureDisk PV 會報無法掛載的錯誤。

  • 由於 Managed Disks 需要創建和管理存儲賬戶,其創建過程會比 Blob Disks 慢(3 分鐘 vs 1-2 分鐘)。

  • 但節點最大支持同時掛載 16 個 AzureDisk。

使用 AzureDisk 推薦的版本:

Kubernetes version
Recommended version

1.12

1.12.9 或更高版本

1.13

1.13.6 或更高版本

1.14

1.14.2 或更高版本

>=1.15

>=1.15

使用 aks-engine 部署的 Kubernetes 集群,會自動創建兩個 StorageClass,默認爲managed-standard(即HDD):

kubectl get storageclass
NAME                PROVISIONER                AGE
default (default)   kubernetes.io/azure-disk   45d
managed-premium     kubernetes.io/azure-disk   53d
managed-standard    kubernetes.io/azure-disk   53d

AzureDisk 掛載失敗

在 AzureDisk 從一個 Pod 遷移到另一 Node 上面的 Pod 時或者同一臺 Node 上面使用了多塊 AzureDisk 時有可能會碰到這個問題。這是由於 kube-controller-manager 未對 AttachDisk 和 DetachDisk 操作加鎖從而引發了競爭問題(kubernetes#60101 acs-engine#2002 ACS#12)。

通過 kube-controller-manager 的日誌,可以查看具體的錯誤原因。常見的錯誤日誌爲

Cannot attach data disk 'cdb-dynamic-pvc-92972088-11b9-11e8-888f-000d3a018174' to VM 'kn-edge-0' because the disk is currently being detached or the last detach operation failed. Please wait until the disk is completely detached and then try again or delete/detach the disk explicitly again.

臨時性解決方法爲

(1)更新所有受影響的虛擬機狀態

使用powershell:

$vm = Get-AzureRMVM -ResourceGroupName $rg -Name $vmname
Update-AzureRmVM -ResourceGroupName $rg -VM $vm -verbose -debug

使用 Azure CLI:

# For VM:
az vm update -n <VM_NAME> -g <RESOURCE_GROUP_NAME>

# For VMSS:
az vmss update-instances -g <RESOURCE_GROUP_NAME> --name <VMSS_NAME> --instance-id <ID>

(2)重啓虛擬機

  • kubectl cordon NODE

  • 如果 Node 上運行有 StatefulSet,需要手動刪除相應的 Pod

  • kubectl drain NODE

  • Get-AzureRMVM -ResourceGroupName $rg -Name $vmname | Restart-AzureVM

  • kubectl uncordon NODE

該問題的修復 #60183 已包含在 v1.10 中。

掛載新的 AzureDisk 後,該 Node 中其他 Pod 已掛載的 AzureDisk 不可用

在 Kubernetes v1.7 中,AzureDisk 默認的緩存策略修改爲 ReadWrite,這會導致在同一個 Node 中掛載超過 5 塊 AzureDisk 時,已有 AzureDisk 的盤符會隨機改變(kubernetes#60344 kubernetes#57444 AKS#201 acs-engine#1918)。比如,當掛載第六塊 AzureDisk 後,原來 lun0 磁盤的掛載盤符有可能從 sdc 變成 sdk

$ tree /dev/disk/azure
...
└── scsi1
    ├── lun0 -> ../../../sdk
    ├── lun1 -> ../../../sdj
    ├── lun2 -> ../../../sde
    ├── lun3 -> ../../../sdf
    ├── lun4 -> ../../../sdg
    ├── lun5 -> ../../../sdh
    └── lun6 -> ../../../sdi

這樣,原來使用 lun0 磁盤的 Pod 就無法訪問 AzureDisk 了

[root@admin-0 /]# ls /datadisk
ls: reading directory .: Input/output error

臨時性解決方法是設置 AzureDisk StorageClass 的 cachingmode: None,如

kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: managed-standard
provisioner: kubernetes.io/azure-disk
parameters:
  skuname: Standard_LRS
  kind: Managed
  cachingmode: None

該問題的修復 #60346 將包含在 v1.10 中。

AzureDisk 掛載慢

AzureDisk PVC 的掛載過程一般需要 1 分鐘的時間,這些時間主要消耗在 Azure ARM API 的調用上(查詢 VM 以及掛載 Disk)。#57432 爲 Azure VM 增加了一個緩存,消除了 VM 的查詢時間,將整個掛載過程縮短到大約 30 秒。該修復包含在v1.9.2+ 和 v1.10 中。

另外,如果 Node 使用了 Standard_B1s 類型的虛擬機,那麼 AzureDisk 的第一次掛載一般會超時,等再次重複時纔會掛載成功。這是因爲在 Standard_B1s 虛擬機中格式化 AzureDisk 就需要很長時間(如超過 70 秒)。

$ kubectl describe pod <pod-name>
...
Events:
  FirstSeen     LastSeen        Count   From                                    SubObjectPath                           Type            Reason                  Message
  ---------     --------        -----   ----                                    -------------                           --------        ------                  -------
  8m            8m              1       default-scheduler                                                               Normal          Scheduled               Successfully assigned nginx-azuredisk to aks-nodepool1-15012548-0
  7m            7m              1       kubelet, aks-nodepool1-15012548-0                                               Normal          SuccessfulMountVolume   MountVolume.SetUp succeeded for volume "default-token-mrw8h"
  5m            5m              1       kubelet, aks-nodepool1-15012548-0                                               Warning         FailedMount             Unable to mount volumes for pod "nginx-azuredisk_default(4eb22bb2-0bb5-11e8-8
d9e-0a58ac1f0a2e)": timeout expired waiting for volumes to attach/mount for pod "default"/"nginx-azuredisk". list of unattached/unmounted volumes=[disk01]
  5m            5m              1       kubelet, aks-nodepool1-15012548-0                                               Warning         FailedSync              Error syncing pod
  4m            4m              1       kubelet, aks-nodepool1-15012548-0                                               Normal          SuccessfulMountVolume   MountVolume.SetUp succeeded for volume "pvc-20240841-0bb5-11e8-8d9e-0a58ac1f0
a2e"
  4m            4m              1       kubelet, aks-nodepool1-15012548-0       spec.containers{nginx-azuredisk}        Normal          Pulling                 pulling image "nginx"
  3m            3m              1       kubelet, aks-nodepool1-15012548-0       spec.containers{nginx-azuredisk}        Normal          Pulled                  Successfully pulled image "nginx"
  3m            3m              1       kubelet, aks-nodepool1-15012548-0       spec.containers{nginx-azuredisk}        Normal          Created                 Created container
  2m            2m              1       kubelet, aks-nodepool1-15012548-0       spec.containers{nginx-azuredisk}        Normal          Started                 Started container

Azure German Cloud 無法使用 AzureDisk

Azure German Cloud 僅在 v1.7.9+、v1.8.3+ 以及更新版本中支持(#50673),升級 Kubernetes 版本即可解決。

MountVolume.WaitForAttach failed

MountVolume.WaitForAttach failed for volume "pvc-f1562ecb-3e5f-11e8-ab6b-000d3af9f967" : azureDisk - Wait for attach expect device path as a lun number, instead got: /dev/disk/azure/scsi1/lun1 (strconv.Atoi: parsing "/dev/disk/azure/scsi1/lun1": invalid syntax)

該問題 僅在 Kubernetes v1.10.0 和 v1.10.1 中存在,將在 v1.10.2 中修復。

在 mountOptions 中設置 uid 和 gid 時失敗

默認情況下,Azure 磁盤使用 ext4、xfs filesystem 和 mountOptions,如 uid = x,gid = x 無法在裝入時設置。 例如,如果你嘗試設置 mountOptions uid = 999,gid = 999,將看到類似於以下內容的錯誤:

Warning  FailedMount             63s                  kubelet, aks-nodepool1-29460110-0  MountVolume.MountDevice failed for volume "pvc-d783d0e4-85a1-11e9-8a90-369885447933" : azureDisk - mountDevice:FormatAndMount failed with mount failed: exit status 32
Mounting command: systemd-run
Mounting arguments: --description=Kubernetes transient mount for /var/lib/kubelet/plugins/kubernetes.io/azure-disk/mounts/m436970985 --scope -- mount -t xfs -o dir_mode=0777,file_mode=0777,uid=1000,gid=1000,defaults /dev/disk/azure/scsi1/lun2 /var/lib/kubelet/plugins/kubernetes.io/azure-disk/mounts/m436970985
Output: Running scope as unit run-rb21966413ab449b3a242ae9b0fbc9398.scope.
mount: wrong fs type, bad option, bad superblock on /dev/sde,
       missing codepage or helper program, or other error

可以通過執行以下操作之一來緩解此問題

  • 通過在 fsGroup 中的 runAsUser 和 gid 中設置 uid 來配置 pod 的安全上下文。例如,以下設置會將 pod 設置爲 root,使其可供任何文件訪問:

apiVersion: v1
kind: Pod
metadata:
  name: security-context-demo
spec:
  securityContext:
    runAsUser: 0
    fsGroup: 0

備註: 因爲 gid 和 uid 默認裝載爲 root 或0。如果 gid 或 uid 設置爲非根(例如1000),則 Kubernetes 將使用 chown 更改該磁盤下的所有目錄和文件。此操作可能非常耗時,並且可能會導致裝載磁盤的速度非常慢。

  • 使用 initContainers 中的 chown 設置 gid 和 uid。例如:

initContainers:
- name: volume-mount
  image: busybox
  command: ["sh", "-c", "chown -R 100:100 /data"]
  volumeMounts:
  - name: <your data volume>
    mountPath: /data

刪除 pod 使用的 Azure 磁盤 PersistentVolumeClaim 時出錯

如果嘗試刪除 pod 使用的 Azure 磁盤 PersistentVolumeClaim,可能會看到錯誤。例如:

$ kubectl describe pv pvc-d8eebc1d-74d3-11e8-902b-e22b71bb1c06
...
Message:         disk.DisksClient#Delete: Failure responding to request: StatusCode=409 -- Original Error: autorest/azure: Service returned an error. Status=409 Code="OperationNotAllowed" Message="Disk kubernetes-dynamic-pvc-d8eebc1d-74d3-11e8-902b-e22b71bb1c06 is attached to VM /subscriptions/{subs-id}/resourceGroups/MC_markito-aks-pvc_markito-aks-pvc_westus/providers/Microsoft.Compute/virtualMachines/aks-agentpool-25259074-0."

在 Kubernetes 版本1.10 及更高版本中,默認情況下已啓用 PersistentVolumeClaim protection 功能以防止此錯誤。如果你使用的 Kubernetes 版本不能解決此問題,則可以通過在刪除 PersistentVolumeClaim 前使用 PersistentVolumeClaim 刪除 pod 來緩解此問題。

參考文檔

Last updated