Hướng dẫn cài máy ảo tren vmware esxi 6.7 năm 2024

FAQ. Học viên hỏi tôi về việc bạn đó muốn upgrade 2 con Esxi Host, trong đó có 1 con ESXi version 6.7.0 Update 3 [Build 15160138] và 1 con ESXi 7.0 Update 3 lên Version 8.0 để tương thích với vCenter 8.0.0.10100, vậy bạn đó muôn biết cần thực hiện các bước upgrade như thế nào để an toàn hạn chế rủi ro, nên sử dụng phương thức upgrade nào an toàn và đơn giản ?

Tôi đã trả lời như sau:

Bước 1. Em vao trang //vmware.com/go/hcl và kiểm tra xem hiện thời 2 máy chut vật lý, serial máy chủ, CPU chipset có được support ngầm định với bản vSphere version 8 ?

Bước 2. Download ban va esxi update iso 8.0 update 2 để tương ứng vcenter 8 u2.

Link Download ISO vSphere 8 update 2: //customerconnect.vmware.com/evalcenter?p=vsphere-eval-8

Bước 3. Thử tạo 1 vm trên vsphere 6.7 hoac 7.0 cũ [ đang chạy chưa nâng cấp] và cấu vm guest os other, kiểu VMware 8 để test cấu hình và file iso bộ cài 8.0 u1 xem cài được không, cấu hình giống bài lab 1: mô-đun 3 trong E-learning.

Ví dụ: vm ESXi Nested: 8gram, 4vcpu, vd1 20GB , 2 vmnic vmxnet3 và mount cdrom vào file iso để cài test.

  • Nó chạy qua phần check cpu và cài ảo trong ảo esxi nested được là ta có thể khẳng định nâng cấp version lên 8.0 u1 được.
  • Khi bạn đó thử các bước trên ESXi Nested VM thì có màn báo:

  • vậy Bạn sẽ cứ thử next và cài xem có chạy được không nhé.

Bước 4.

  • Phải vMotion các VMs có trên từng host cũ này hoặc backup VMs vào tủ NAS/External Disk riêng trước khi định nâng cấp.
  • Trên host cũ này chỉ còn các vms chấp nhận gián đoạn tạm thời để nâng cấp.

Bước 5. Có 3 cách nâng cấp vSphere 6.7 lên 7.x hoặc 8.x như sau:

Cách 1. Dùng rufus tạo usb boot từ files iso 8.0u1 esxi và cắm usb vào máy chủ vật lý để reboot và chọn chế độ upgrade:

Bước 1: Chuẩn bị

  • Tải về file ISO của vSphere 8.0u1 ESXi từ nguồn tin cậy: //customerconnect.vmware.com/en/evalcenter?p=vsphere-eval-8
  • Tải và cài đặt Rufus từ trang web chính thức: //rufus.ie/

Bước 2: Chuẩn bị USB

  • Kết nối USB vào máy tính.
  • Lưu ý: USB sẽ bị xóa toàn bộ dữ liệu trong quá trình tạo USB boot, hãy sao lưu các dữ liệu quan trọng trước khi tiếp tục.

Bước 3: Mở Rufus

  • Mở Rufus trên máy tính của bạn.

Bước 4: Chọn USB

  • Trong “Device” [Thiết bị], chọn USB mà bạn muốn tạo thành USB boot.

Bước 5: Chọn File ISO

  • Trong phần “Boot selection” [Lựa chọn boot], nhấp vào nút “Select” [Chọn] và tìm đến file ISO vSphere 8.0u1 ESXi bạn đã tải xuống.

Bước 6: Chọn Chế độ Boot

  • Trong phần “Partition scheme” [Kiểu phân vùng], chọn “MBR” nếu máy tính của bạn sử dụng chuẩn BIOS. Nếu máy tính sử dụng chuẩn UEFI, hãy chọn “GPT”.
  • Trong phần “File system”, hãy chọn “FAT32”.

Bước 7: Đặt Tên

  • Trong phần “Volume label” [Nhãn ổ đĩa], bạn có thể đặt tên cho USB boot của mình [tùy chọn].

Bước 8: Bắt đầu tạo USB boot

  • Nhấp vào nút “Start” [Bắt đầu] để Rufus bắt đầu quá trình tạo USB boot. Rufus sẽ xóa toàn bộ dữ liệu trên USB và tạo USB boot từ file ISO vSphere 8.0u1 ESXi.

Bước 9: Kết thúc

  • Khi quá trình tạo USB boot hoàn tất, bạn có thể rút USB ra khỏi máy tính.

Bước 10: Nâng cấp máy chủ

  • Cắm USB boot vào máy chủ vật lý.
  • Khởi động lại máy chủ và chọn chế độ boot từ USB. Cách này có thể khác nhau tùy thuộc vào nhà sản xuất máy chủ của bạn. Thông thường, bạn có thể thay đổi thứ tự boot trong BIOS hoặc chọn chế độ boot tạm thời bằng cách nhấn một phím như F12 hoặc ESC khi khởi động máy tính.

Bước 11: Tiến hành nâng cấp

  • Khi máy chủ đã boot từ USB, bạn sẽ thấy giao diện cài đặt của vSphere 8.0u1 ESXi. Theo các hướng dẫn trên màn hình để tiến hành quá trình nâng cấp.
  • Sau khi upgrade xong reboot lại host là đợi khởi động thành công và em vào wbe vsphere check version. Done

Cách 2. nếu các máy chủ vật lý có hỗ trợ iDirect – DELLEMC Server, ipmi – SupperMicro Server, pmi/ iLO – Lenovo/IBM/HPE Server

  • Điều khiển bmc ipv4 từ xa và em có quyền mount cd media file iso, em sẽ đẩy files này và mount để boot bằng file iso và thao tác upgrade tương tự cách 1.
  • Ví dụ các bước đưa file ISO cài đặt vSphere 8 vào USB của máy chủ có hỗ trợ iDirect – DELLEMC Server, IPMI – Supermicro Server và PMI/iLO – Lenovo/IBM/HPE Server có thể khác nhau một chút. Dưới đây là một hướng dẫn tổng quát để bạn có thể tham khảo:
  • Chuẩn bị:
  • Tải về file ISO cài đặt vSphere 8 từ nguồn tin cậy: //customerconnect.vmware.com/evalcenter?p=vsphere-eval-8
  • Chép file ISO vào USB 32GB và Kết nối USB vào máy tính.
  • Nếu sử dụng iDirect – DELLEMC Server:
  • Tải công cụ Dell iDRAC Service Module từ trang web chính thức của Dell.
  • Cài đặt công cụ trên máy tính của bạn.
  • Mở công cụ Dell iDRAC Service Module và tuân thủ hướng dẫn để tạo USB boot từ file ISO vSphere 8.
  • Nếu sử dụng IPMI – Supermicro Server:
  • Truy cập giao diện IPMI của máy chủ [thông qua địa chỉ IP của IPMI và thông tin đăng nhập].
  • Trong giao diện IPMI, tìm các tùy chọn liên quan đến quản lý boot và USB.
  • Chọn tùy chọn tạo USB boot và hướng dẫn theo các bước để chọn file ISO vSphere 8 và tạo USB boot.
  • Nếu sử dụng PMI/iLO – Lenovo/IBM/HPE Server:
  • Truy cập giao diện quản lý PMI/iLO của máy chủ [thông qua địa chỉ IP của PMI/iLO và thông tin đăng nhập].
  • Trong giao diện PMI/iLO, tìm các tùy chọn liên quan đến quản lý boot và USB.
  • Chọn tùy chọn tạo USB boot và hướng dẫn theo các bước để chọn file ISO vSphere 8 và tạo USB boot.

Lưu ý quá trình cụ thể có thể khác nhau tùy thuộc vào nhà sản xuất máy chủ và giao diện quản lý BIOS BCM được sử dụng là khác nhau cả về Version.

Cách 3. Để vá lỗi hoặc nâng cấp từ vSphere 6.7 lên vSphere 8 thông qua vCenter 8.0 Appliance, bạn có thể sử dụng các bước dưới đây:

Ghi chú: vSphere Lifecycle Manager baselines [previously called vSphere Update Manager VUM] is being deprecated. You can instead manage the lifecycle of the hosts in your environment by using vSphere Lifecycle Manager images [vLCM]. See KB to learn how you can switch from using baselines, to using a single image for your clusters.

  • Chuẩn bị:
  • Đảm bảo rằng bạn đã sao lưu dữ liệu quan trọng và tạo một bản snapshot [nếu cần] của vCenter Server và máy chủ ESXi trước khi tiến hành bất kỳ thay đổi nào.
  • Tải về bản cập nhật hoặc bản nâng cấp vSphere 8 từ trang web hỗ trợ của VMware: //customerconnect.vmware.com/en/evalcenter?p=vsphere-eval-8
  • Tạo Clusters hoặc Add Host
  • Vá lỗi:
  • Đăng nhập vào giao diện quản lý vCenter 8.0 Appliance.
  • Truy cập mục “Updates > Hosts Baselines” hoặc “Hosts Images > Clusters or Standalone hosts” tùy thuộc vào phương pháp bạn muốn sử dụng [với Baselines hoặc Images].
  • Xác định các bản vá lỗi hoặc bản cập nhật mà bạn muốn áp dụng lên máy chủ ESXi.
  • Chọn các bản vá lỗi hoặc bản cập nhật và áp dụng chúng cho các máy chủ ESXi tương ứng.

Tham khảo: Cách nâng cấp vá lỗi vSphere 6.7 từ GA [8169922] lên Update 3 [14320388]

//thangletoan.wordpress.com/2020/03/18/cach-nang-cap-va-loi-vsphere-6-7-tu-ga-8169922-len-update-3-14320388/

  • Nâng cấp:
  • Đăng nhập vào giao diện quản lý vCenter 8.0 Appliance.
  • Truy cập mục “Updates > Hosts Baselines” hoặc “Hosts Images > Clusters or Standalone hosts” tùy thuộc vào phương pháp bạn muốn sử dụng [với Baselines hoặc Images].
  • Xác định bản nâng cấp vSphere 8 mà bạn muốn áp dụng lên máy chủ ESXi.
  • Chọn bản nâng cấp và áp dụng nó cho các máy chủ ESXi tương ứng.

Tham khảo: //kb.vmware.com/s/article/89519

Tham khảo: //docs.vmware.com/en/VMware-vSphere/8.0/vsphere-lifecycle-manager/GUID-DC7146CA-8E5F-4568-860A-5350C0D41826.html

Phần 1. Cấu hình DRS cluster:

Lưu ý: Cần tắt DPM [không chọn Enable] thì vSAN mới Enable:

Phần 2. vSphere HA có mục Admission Control

Tạm tắt vì cấu hình vSphere HA báo quá tải?

Phần 3. cấu hình vSAN ESA:

Đổi key license:

Các Features của license vSAN enterprise plus:

  • Trong cụm cluster > Configure > Host Option > cho phép chọn các Host để điều khiển Power Management và IPMI/iLO

Cấu hình riêng từng Host

Điền thông tin

Các cấu trúc vSAN Storage Policy:

Các dạng vSAN Failures to tolerate:

Storage rules:

Tag

Check compatible

Phần 4. Cấu hình QoS cho Storage Policy Components:

Normal

Low:

Nên tạo 2 nhóm Policy cho Storage

Và nhóm VM chuyên xử lý Data cần IOPS cao:

Phần 5. Các bước cấu hình Disk Management vSAN 8:

Disk Management:

Quickstart:

Chúng yêu cầu bước 2, cần check và sửa nhằm đáp ứng:

  1. Cần vDS cho riêng vSAN và vMotion:

Các lựa chọn:

Network Offloads compatibility

Thay đổi cấu hình mặc định cho vDS

Thay

  • Thêm các hosts vào vDS này

Do ta chưa add host vào vDS này nên chọn

Sau đó nếu chọn 4 hosts

Ngay sau thao tác định nghĩa “Assign port group 2 uplink cho vSAN vDPG thì chúng ta sẽ phải định nghĩa tiếp Port Manage vmkernel adapters

Chú thích:

  • Trong trường hợp có nghĩa là Management Network Port Group đang được tách riêng để vừa an toàn vừa đảm bảo băng thông riêng cho lớp quản trị, nó đang nằm ở vSS = vSwitch0 [nên như vậy, không nên converter / migration chúng sang vDS vì cấu hình được lưu trên từng Host ESXi nhằm đảm bảo ít sự cố ảnh hưởng khi VM: vCenter Appliance gặp sự cố].
  • Bước tiếp theo nên bỏ qua vì chúng ta chỉ nên tách vDS và lớp dịch vụ MNGT [vẫn ở dạng vSS].

  • Bước tiếp theo Review

  • Như vậy, sau khi thêm 4 hosts vào vDS name: vSAN8
  • Chúng ta chỉ thấy có danh sách 6 uplink card tương ứng với 2 Uplink Port của 3 host.

Sau khi cấu hình vSAN8 cho vDS nhóm cụm 4 host, chúng ta quay lại màn Quickstart để re-validate

Như vậy, sau khi bấm nút re-validate, chúng ta sẽ thấy các biểu tượng cần bấm trực tiếp vào để kiểm tra

Ví dụ 1: bấm mục vSAN HCL DB up-to-date

Sau đó bấm lại Re-validate

Ví dụ 2: bấm mục vSAN HCL DB Auto Update

Ví dụ 3: bấm mục SCSI controller is VMware certified

Ví dụ 4: bấm mục Physical NIC link speed

Xác định được vị trí các vmNIC0, vmNIC1 là có mapping với vSAN

Ví dụ 5: bấm mục Time is Synchronized across hosts and VC

Click vào ESXi host đang có vấn đề Host và VC time bị lệch nhau hơn 60s. cần test lại NTP time client to NTP Server

Để đồng bộ Time sync thấp hơn dưới 30s.

Ví dụ 6: Bấm mục vSphere Lifecycle Manager [vLCM] configuration

Ví dụ 7: Bấm mục Advanced vSAN configuration in sync

Phần 1. Tham khảo, tải bản Nested ESXi 7x/8x:

Tham khảo hướng dẫn: //www.eve-ng.net/index.php/documentation/howtos/howto-add-vm-ware-esxi/

Các đường link download

//download3.vmware.com/software/vmw-tools/nested-esxi/Nested_ESXi7.0_Appliance_Template_v1.ova

//download3.vmware.com/software/vmw-tools/nested-esxi/Nested_ESXi8.0_IA_Appliance_Template_v2.ova

//download3.vmware.com/software/vmw-tools/nested-esxi/Nested_ESXi8.0a_Appliance_Template_v1.ova

//download3.vmware.com/software/vmw-tools/nested-esxi/Nested_ESXi8.0b_Appliance_Template_v1.ova

//download3.vmware.com/software/vmw-tools/nested-esxi/Nested_ESXi8.0c_Appliance_Template_v1.ova

//download3.vmware.com/software/vmw-tools/nested-esxi/Nested_ESXi8.0u1_Appliance_Template_v1.ova

//download3.vmware.com/software/vmw-tools/nested-esxi/Nested_ESXi8.0u1a_Appliance_Template_v1.ova

For those that prefer to consume my Nested ESXi Virtual Appliances using my Nested ESXi vSphere Content Library, simply subscribe to:

//download3.vmware.com/software/vmw-tools/lib.json

Phần 2. Các bước cài đặt ESXi 8x trên EVE-NG:

Bước 1. Dùng PuTTy kết nối qua SSH truy cập EVE-NG và đăng nhập với quyền root, từ cli và tạo thư mục làm việc tạm thời abc trên thư mục gốc của EVE:

mkdir abc

cd abc

Bước 2. Tải hình ảnh OVA đã tải xuống lên thư mục gốc/abc của EVE bằng WinSCP:

Bước 3. Trích xuất hình ảnh OVA, để sử dụng tiếp, chúng tôi sẽ cần đĩa CD cài đặt ISO bên trong OVA.

cd abc

ls

tar xvf Nested_ESXi8.0u1a_Appliance_Template_v1.ova

Bước 4. Chuyển đổi hdd vmdk đầu tiên sang định dạng qcow2.

/opt/qemu/bin/qemu-img convert -f vmdk -O qcow2 Nested_ESXi8.0u1a_Appliance_Template_v1-disk1.vmdk hda.qcow2

/opt/qemu/bin/qemu-img convert -f vmdk -O qcow2 Nested_ESXi8.0u1a_Appliance_Template_v1-disk2.vmdk hdb.qcow2

/opt/qemu/bin/qemu-img convert -f vmdk -O qcow2 Nested_ESXi8.0u1a_Appliance_Template_v1-disk3.vmdk hdc.qcow2

Bước 5. Tạo thư mục hình ảnh mới có tên esxi-vSphere-8.0

mkdir /opt/unetlab/addons/qemu/esxi-vSphere-8.0

Bước 6. Di chuyển các tệp hình ảnh đã chuẩn bị sẵn của bạn hda.qcow2 và hdb.qcow2 vào thư mục hình ảnh esxi-vSphere-8.0

mv hda.qcow2 hdb.qcow2 hdc.qcow2 /opt/unetlab/addons/qemu/esxi-vSphere-8.0/

Bước 7. Xóa thư mục tạm thời abc lưu esxi8.0 và sửa quyền

cd

rm -rf abc

/opt/unetlab/wrappers/unl_wrapper -a fixpermissions

Bước 8. Tạo VM

Lưu ý:

  • Tên người dùng và mật khẩu cho hình ảnh mới được tạo sẽ là root | VMware1!
  • Đề xuất cho hình ảnh này là chỉ định CPU x4 trở lên và cung cấp RAM 8GB trở lên.
  • Thiết kế Labs trên EVE-NG sẽ được triển khai kết hợp với pSW1 – pSW2 – Router…

  • Quay lại Bước 4.
    • Nếu cần thêm 1 HDD khác ở định dạng qcow2. Tạo một hdd khác ở định dạng qcow2. Nó sẽ là hdd [DAS] lưu trữ trên ESXi của bạn. Tùy chọn, bạn có thể tạo nhiều hơn một hdd lưu trữ, tên cho hdd lưu trữ sẽ là hdd, hde. Trong bước này, tôi tạo hdd lưu trữ duy nhất. Ví dụ 100GB. Đừng lo lắng, nó không dự trữ 100GB trên hdd trước mà chỉ tạo một khung cho nó. /opt/qemu/bin/qemu-img create -f qcow2 hdd.qcow2 100G
    • Nếu bài Labs vSAN 8 cần có thêm 5 ổ SSD + 1 ổ SSD làm Cache R 75% vs W 25% thì ta sẽ phải thêm kỹ thuật định dạng và tạo thêm các ổ VD có định dạng SSD 512e/512n 4K …

Hoàn cảnh xuất hiện các lỗi về vCenter, vSAN, DRS sau khi backup thành công máy chủ ảo vCenter Appliance:

1. Xuất phát từ các quan điểm công nghệ thì Commvault “CS“, EMC Data Domain “DD“, Veeam Backup “VBR” và các hãng khác đều dùng phổ biến công nghệ CBT, VSS để backup Snapshot “Chụp ảnh” các Máy Ảo gọi tắt là VM hoặc Cụm các máy ảo gọi tắt “vApp“.

2. Riêng một số Máy ảo lại có những quy trình khôi phục HĐH và dữ liệu bị ảnh hưởng bởi các “Quy trình con” trong chính Hệ thống máy ảo [chúng được khởi tạo lại ngay sau quy trình Khôi phục Máy ảo của các công cụ Backup/Restore nói trên ví dụ: Tự issue chữ ký số ngay khi khởi động HĐH, trong ESXi CA hoặc vCenter CA].

  • Đó chính là vCenter Appliance phiên bản 6.x / 7.x hoặc 8.x đây là dòng máy chủ ảo thuộc lớp HĐH Linux SuSe Enterprise x64bit sau khi có thêm nhiều tính năng quan trọng như AutoDeploy, Auto Install npm… thì HĐH này đổi tên thành PhotonOS phiên bản 1.x, 2.x, 3.x.
  • Về quy trình khởi tạo 1 máy chủ ảo vCenter gồm: [tạo VDs Boot, khởi động và cấu hình vCenter SSO, Domain Controller, Single Sign On và luôn khởi tạo vCenter CA cho các ESXi Host mới Add host và join Inventory lần đầu với Web vSphere vCenter…] và chính quy trình này cũng thực hiện áp dụng cho cả cấu hình vSAN khi được bật trên từng ESXi Host.
  • Như vậy, khi dùng các công cụ Backup snapshot với vCenter VM thành công, sau đó lại Restore các bản backup để khôi phục vCenter VM đó nó sẽ tái cấu trúc quy trình khởi tạo lại 1 máy chủ ảo vCenter với hiện tượng lỗi: vCenter CA chạy lại và issue mới 1 chữ ký số CA mới cho từng ESXi Host và nó cũng áp dụng cho vSAN, đây là nguyên nhân dẫn tới việc lỗi vSAN Health check mất kết nối/mất điều khiển Group disk Cache SSD hoặc Group disk Data SATA/SAS…

3. Dưới đây là ví dụ một vài hình ảnh cho thấy 1 hệ thống vSAN đã được cấu hình và chạy trên vCenter Appliance:

– Mạng có cấu hình tối ưu, tách vSwitch, tách vmKernel Port và tách Port Group riêng và đáp ứng băng thông cho vSAN Network 10Gbps

Sau khi dùng VBR / CS / EMC DD khôi phục lại máy chủ vCenter Appliance:

  • Màn Monitor> Issues and Alarms báo lỗi:

  • Màn Monitor vSAN Health > Network báo lỗi:

  • Màn Monitor vSAN Object health > Data báo lỗi:

  • Dấu hiệu lỗi xác thực kiểu có liên quan chữ ký số “vCenter state is authoritative”:

  • Màn Monitor > vSAN > Skyline Health báo các lỗi tổng quan:

4. Một số bài tham khảo mình viết về việc phải cấu hình bật vSAN Observer để tăng cường khả năng giám sát, IOPS realtime cho vSAN:

1. Cấu hình vSAN 7.x có 2 Disk Group Hybrid trên ESXi 7.0u3

2. HƯỚNG DẪN CẤU HÌNH CÔNG CỤ GIÁM SÁT vSAN bằng vSAN Observer

5. Có 3 cách để xử lý vấn đề vCenter Appliance khi Restore từ bản Backup của VBR/CS/DD tránh kiểu lỗi trồng lỗi “Error Stack”:

Cách 1. Xử lý tạm thời:

Tham khảo các dạng lỗi liên quan tới quy trình vCenter tự Issue CA: Generating certificates for use with the VMware SSL Certificate Automation Tool [2044696]

  • Chúng ta phải Reconnect lại ESXi Host vào lại Cụm Cluster đã cấu hình chạy VSAN vì lúc này nó sẽ cho phép chúng ta Add Host với CA mới của vCenter mới cấp.
  • Tất nhiên cách xử lý này lại tái diễn lỗi như vậy nếu chúng ta lại gặp sự cố vCenter và lại dùng công cụ của hãng thứ ba khôi phục lại VM vCenter Appliance.

Màn hình Monitor > vSAN sau khi sửa lỗi.

Cách 2. Xử lý tránh gây lỗi hệ thống sau khi khôi phục:

  1. Vì vCenter Server Administration cũng có màn quản lý CA Manager riêng ở mục vCenter > Administration Menu, nên bản chất chúng có thể cho chúng ta Add Trusted các chứng chỉ số từ Microsoft CA Server Enterprise hoặc các chữ ký số mua của hãng thứ 3 khác.
  2. Chúng ta nên Add các chữ ký số của MS CA Server Enterprise 2016/2019/2022 hoặc của các hãng thứ ba [nếu tổ chức của bạn thuê] để không còn bị quy trình tự issue vCenter CA gây ảnh hưởng tới vấn đề quy trình tạo mới lại CA của vCenter và của ESXi Host [trong đó vSAN Service là thừa hưởng lại quy trình này].

Cách 3. Tránh lỗi triệt để:

  1. Không dùng công cụ backup của VBR/CS/ DD đối với các máy chủ vCenter Appliance [dù là mô hình StandAlone 1 VM, hay vCenter HA 3 VM, hay vCenter Link Mode 15 VM].
  2. Dùng công cụ vCenter Appliance ở cổng Web // 5480 đặt lịch trình backup Job có lịch, có mã hoá có cấu hình đến tử đĩa backup thông qua giao thức FTP/SFTP port 21.
  3. Bản chất vCenter Appliance khi đã có cấu hình Share GPU card theo các hình thức như: Direct Passthrough, SRV-IO, vGPU, DGPU cho VDI đều bị lỗi
  4. Bản chất nếu có cấu hình Bitfusion GPU Pool tích hợp với vCenter Appliance thì đều bị lỗi
  5. Bản chất nếu có cấu hình FPGA Card làm AI, IoT, Computing Labs, HPC, HCI, BigData trên nền VMware vSphere mà các VMs do vCenter Deploy cũng đều bị lỗi không cho backup được các SWAP, Cache trên PROM của FPGA card.

Chúc các bạn vượt qua được các trải nghiệm mồ hôi xương máu, các dự án tránh được thất bại ngay từ khi bấm nút Start!

Sao lưu là một trong những hành động quan trọng nhất đối với hoạt động liên tục của bất kỳ cơ sở hạ tầng CNTT nào.

Chạy máy chủ dưới dạng máy ảo [VM] trên máy chủ ESXi trong vSphere cung cấp cho bạn lợi thế lớn hơn khi sao lưu dữ liệu máy ảo.

Sao lưu cấp máy chủ cho phép bạn sử dụng các tính năng hữu ích như sao lưu không cần tác nhân, sao lưu toàn bộ máy ảo [dữ liệu máy ảo + cấu hình máy ảo], ảnh chụp nhanh để tạo bản sao lưu máy ảo đang chạy và tải máy chủ thấp. Có các máy chủ ESXi ổn định là chìa khóa thành công khi chạy máy ảo. Đó là lý do tại sao tốt hơn nên sao lưu cấu hình ESXi.

Do đó, nếu xảy ra sự cố với máy chủ ESXi, cấu hình của máy chủ này có thể được khôi phục trong vài phút mà không cần tốn nhiều thời gian để cấu hình máy chủ ESXi từ đầu.

1. Sử dụng Dòng lệnh ESXi để sao lưu Máy chủ ESXi Host:

Sử dụng dòng lệnh ESXi là phương pháp hợp lý nhất để sao lưu cấu hình máy chủ ESXi.

  • Bạn không cần cài đặt bất kỳ phần mềm bổ sung nào để sử dụng dòng lệnh ESXi.
  • Bạn phải bật ESXi shell và truy cập SSH từ xa vào máy chủ ESXi.
  • Khi bạn đã kết nối với máy chủ ESXi Host qua SSH, bạn có thể chạy các lệnh.
  • Cấu hình ESXi configuration được lưu tự động hàng giờ vào tệp /bootblank/state.tgz.

Vì lý do này, bạn nên đảm bảo rằng cấu hình ESXi hiện tại được ghi vào tệp cấu hình ESXi ngay bây giờ để xác nhận rằng tất cả các thay đổi được thực hiện đối với cấu hình ESXi kể từ lần lưu tự động cuối cùng đã được lưu:

vim-cmd hostsvc/firmware/sync_config

Sao lưu cấu hình ESXi:

vim-cmd hostsvc/firmware/backup_config

Do đó, bạn sẽ nhận được một liên kết để tải xuống tệp lưu trữ configBundle.tgz từ máy chủ ESXi. Bạn nên thay dấu hoa thị bằng địa chỉ IP của máy chủ ESXi của mình. Tệp lưu trữ có chứa bản sao lưu cấu hình ESXi được lưu vào thư mục / cào / tải xuống trong một khoảng thời gian ngắn [vài phút]. Phân vùng xước đã được đề cập trong bài đăng trên blog về việc cài đặt ESXi trên ổ USB Flash.

2. Cách khôi phục cấu hình ESXi trong dòng lệnh ESXi:

Bạn nên cài đặt ESXi có cùng phiên bản và số bản dựng trên máy mà bạn muốn khôi phục cấu hình ESXi. Quy tắc này đúng cho tất cả các phương pháp khôi phục cấu hình ESXi được xem xét trong bài đăng trên blog này. Nếu bạn định khôi phục cấu hình ESXi trên máy chủ ESXi được cài đặt từ đầu [đã cài đặt rõ ràng], bạn cần đặt địa chỉ IP cho giao diện mạng được sử dụng cho mạng quản lý ESXi và cho phép truy cập SSH. Cấu hình ESXi ban đầu được giải thích trong bài viết này. UUID phải giống nhau trên cả máy chủ ESXi đã được sao lưu và máy chủ ESXi mà cấu hình phải được khôi phục. Dưới đây trong phần này, hãy đọc những việc cần làm nếu các giá trị UUID khác nhau.

Khi bạn đã chuẩn bị máy chủ ESXi mới cài đặt của mình để khôi phục cấu hình ESXi từ bản sao lưu, hãy kết nối với máy chủ ESXi qua SSH và nhập máy chủ đó vào chế độ bảo trì.

esxcli system maintenanceMode set –enable yes

hoặc

vim-cmd hostsvc/maintenance_mode_enter

Một khi đã dựng mới ESXi host [ví dụ: 172.20.10.55/24] thì UUID của ESXi host này sẽ khác với ESXi Host cũ [bản đã backup cấu hình].

Nên thường sẽ phải dùng 7.zip và mở file theo hình thức Open archive [không giải nén]

Tiếp tục mở các files / folder được nén trong file tgz

Tiếp tục mở để Edit file Maniest.txt

Nội dung cần thay đổi là mã Hex sau dấu bằng của UUID=

Cách thay đổi UUID để khôi phục cấu hình ESXi:

Lúc này bạn nên dùng PuTTy kết nối qua SSH port 22 tới ESXi Host mới dựng và dùng lệnh

esxcfg-info -u

để lấy giá trị UUID của ESXi Host mới dựng.

và copy UUID mới này thay thế giá trị có ở màn đang Edit trong 7.zip file: Manifest.txt

Sau khi sửa mã Hex, bấm ok để lưu thay đổi

Cuối cùng là lần save của cả file .tgz

Bước tiếp theo là đổi tên file configBundle-xxxx.tgz thành configBundle.tgz, sau đó đẩy file đó vào thư mục /tmp/ bằng WinSCP

Ví dụ: /tmp/configBundle.tgz

Bước tiếp theo: dùng PuTTy gõ lệnh:

vim-cmd hostsvc/firmware/restore_config /tmp/configBundle.tgz

Sau khi chạy lệnh này, máy chủ ESXi sẽ khởi động lại tự động ngay lập tức.

Chúc các bạn thành công, cấu hình và sao lưu an toàn cấu hình ESXi Host!

Bước 1. Chúng ta truy cập Web Sphere của ESXi06 bằng User: root

Mở mục Manage > Tab Security & users > Users > Add user và kiểm tra thấy user root thuộc Role Administrator

  • Như vậy, nếu việc dùng user root cho hầu hết các tác vụ nghiệp vụ từ bảo mật cho tới kết nối với vCenter, NSX, vRealize, VDI hoặc SDDC cloud Foundation thực sự là vấn đề
  • Chưa kể hạ tầng quản trị của chúng ta có nhiều Admin, subadmin… thậm trí là vai trò của Kiểm toán CNTT và An toàn CNTT sẽ yêu cầu thay đổi mật khẩu, hoặc hệ thống GPO, LGPO và chính sách tuổi mật khẩu cho bất kỳ user account nào tham gia hệ thống DCV.

Chúng ta cho AD User vào làm SystemAccount cho kết nối dịch vụ giữa ESXi với vCenter …

Bước 2. ESXi Host sẽ được Join Domain bằng User thuộc nhóm Domain Admin của AD Server:

Bước 3. Add AD user vào mục Host > Add Permission > Manage permissions > Add user

Add User từ AD server: netbios name của Domain \Username

Ví dụ: VCLASS\user4 và chon Role: Administrator

Bước 4. Truy cập mục Host > Security & users > Lockdown mode > Add user exception:

Nhập AD User và user root vào mục Exception users, ví dụ: VCLASS\user4.

Bước 5. Truy cập Web vCenter 7 và Add host bằng AD User:

Chọn Lockdown mode: normal vì đã có 2 user Admin thuộc ngoại trừ bị Lockdown mode.

Đối chiếu cấu hình của ESXi06 sau khi Add host thành công vào Inventory vCenter:

Bonus. Giả sử trường hợp này đã chạy ổn, nhưng sau đó vCenter 7 bị lỗi vậy cần ngắt ESXi06 ra khỏi vCenter đã hỏng khi enable lockdown mode

  • Thực tế ESXi06 này vẫn còn AD User đã được cấu hình phân quyền là Administrator và có trong danh sách ngoại trừ bị lockdown mode.
  • Lúc này vẫn có quyền truy cập Web ESXi bằng AD user.

Bước 1. Truy cập Web vCenter:

Ví dụ: vcva99.vclass.local bị lỗi và bị hỏng

ở chế độ vCenter Link mode, chúng ta chỉ nhìn thấy tên vcenter đã được join link mode và không còn thấy các ESXi đã được Add host vào vcenter này.

Bước 2. Truy cập trở lại Web vSphere bằng AD User:

Bước 3. Bấm phải chuột vào Host

Menu Host xuất hiện, chúng ta chọn Disconnect from vCenter Server để ngắt kết nối ESXi với vCenter

Giả sử 2: vCenter 7 đó đã được khôi phục/ restore từ bản backup thành công

Lúc đó vCenter thuộc nhóm Link Mode sẽ khôi phục lại được cấu hình DC, Cluster hoặc Host, nhưng riêng esxi06 đã disconnect nên

Sẽ có thông báo [Not responding]

  • Nếu muốn điều khiển được ESxi06, chúng ta có thể reconnect lại.

  • Nếu muốn xoá hẳn để Add host sang vCenter khác chúng ta lặp lại các bước tương tự với AD user.

Tham khảo: //docs.vmware.com/en/VMware-vSphere/6.7/rn/esxi670-202201001.html

1. Nguyên nhân và bối cảnh /hiện tượng lỗi xẩy ra ở vSphere 6.7 update 3:

  • ESXi Host vẫn đang chạy, mở cộng SSH port 22, Port 443, 80 vẫn cho telnet, ICMP thông nhưng không vào được Web vSphere client.
  • Ping ICMP thông hoặc timeout chập chờn.
  • Có một số máy Ảo hoặc máy vật lý mới cài lại OS windows 10 và nằm trong dải IP4 Management Network vào được Web vSphere client của ESXi bằng FQDN/IPv4 nhưng phần lớn là timeout.
  • Theo một trình tự lỗi có quy luật xuất hiện không truy cập vào dịch vụ website/email/ UCs/ meeting web/ Power BI Report Server … của các Máy ảo chạy host trên esxi 6.7 [12:00 – 4:25 AM].

2. Phân tích hiện tượng lỗi trên ESXi 6.7 u3:

  1. ESXi Host vẫn chạy và lỗi chữ ký số SSL/TLS [VMware dùng OpenSSL để renew chữ ký số nhưng ngầm định tự cấp SSL “issue SSL” có thời hạn trung bình 5 năm] nên lỗi Expired date là không thể.
  2. Dấu hiệu lỗi dịch vụ của Web Apache/Tomcat về loại lỗ hổng Log4J và Log4Shell là rất cao vì lúc vào được Web HTTPS của ESXi host lúc không.
  3. Việc cấp phát chữ ký số SSL cho ESXi host có 6 tình huống:
    1. Cấp từ chính lần đầu cài ESXi
      host  
      
      à Tình huống này không thể xẩy ra do đang chạy ESXi host ở chế độ production rồi.
    2. Cấp lại từ vCenter
      Appliance khi add Host vào Inventory của vCenter  
      VM. à tình huống này đã diễn ra và không thể xẩy ra do tôi đã shutdown vCenter và đã remove  
      Host ra khỏi Inventory và Cluster của vCenter [di nhiên khi removed Host thì việc cấp lại SSL cho ESXi host này lại bị tái diễn 1 lần nữa].  
    3. Cấp lại từ NSX-T Manager à Tôi không dùng tính năng này.
    4. Cấp lại từ vRealize
      Suite  
      Log  
      Insight/ Ops … à Tôi không dùng tính năng này.  
    5. Cấp lại từ vCloud hoặc VMware Cloud Foundation … à Tôi bỏ ESXi host ra khỏi inventory của SDDC và Workload Domain.
    6. Cấp lại từ vMA để hỗ trợ vLCM [phiên bản cũ chỉ hỗ trợ cho vSphere 6.x] à Tôi đang dùng tính năng này để điều khiển Ups Management tích hợp với vCenter để điều khiển PDA / ADP nguồn điện của các vSphere ESXi Host.

3. Các bước xử lý lỗi ESXi 6.7 u3:

Bước 1. Backup cấu hình ESXi host 6.7 u3 cũ bằng lệnh SSH Shell: vim-cmd /hostsvc/firmware/backup_config

Bước 2. Download bản vá lỗi mới nhất ngày 25.1.2022 cho vSphere 6.7 update 3 build 202201001

Tham khảo: //www.vmware.com/group/vmware/patch

Bước 3. vMotion VM di chuyển cả Máy ảo và Storage VM sang các ESXxi host khác để tránh bị gián đoạn dịch vụ. hoặc dùng Commvault Server / Veeam Backup để sao lưu các VMs data nhằm đảm bảo tránh rủi ro sự cố hỏng dữ liệu các máy ảo đang chạy trên ESXi host 6.7 u3 này.

Bước 4. Tiến hành upload file vá lỗi ESXi670-202201001.zip vào vùng /tmp trên esxi 6.7 cần vá lỗi [lưu ý: file này nhỏ hơn 350 MB nên upload vào /tmp folder được, nếu lớn hơn 400MB thì sẽ cần phải upload vào các thư mục /vmfs/volumes/NAAID …]

Bước 5. Chạy PuTTy kết nối tới ESXi 6.7 u3 login bằng user root và nhập lệnh update:

esxcli software profile update –p ESXi-6.7.0-20220104001-standard –d /vmfs/volumes/naiad-xyz/ESXi670-202201001.zip

Sau khi chạy xong lệnh, màn PuTTy sẽ báo Reboot required: true

Hãy chọn lịch phù hợp để reboot lại ESXi Host.

Sau khởi động lại thành công ESXi host màn Web vSphere client truy cập bình thường và màn Summary Tab báo số Update 3 build 19195723.

Chúc các bạn thành công, vận hành an toàn hạ tầng Ảo hoá cùng các công nghệ VMware vLCM, vRealize Suite, Automation, Horizon View, Cloud Foundation!

Mật khẩu của user root trong ESXi bị quên hoặc bị thay đổi khi đã kết nối vCenter có thể khiến bạn mất kiểm soát được hệ thống Ảo hoá.

  • Tránh các bản sửa lỗi hệ thống Ảo hoá giữa ESXi và vCenter hoặc SDDC Cloud Foundation.
  • Tìm hiểu cách thích hợp để khôi phục mật khẩu của root cho các máy chủ ESXi Hypervisor, vSphere Standalone hoặc đã được kết nối vCenter Inventory / Cluster.
  • Mọi người đều có thể quên mật khẩu ít nhất một vài lần trong đời?
  • Các bộ phận kiểm toán công nghệ thông tin rất hay thực hiện quy trình thay đổi mật khẩu root, và chúng ta chỉ cần sai lầm trong quy trình thay mật khẩu của root.
  • Nếu bạn quên mật khẩu của tài khoản root ESXi, bạn có thể tìm thấy nhiều cách sửa lỗi khác nhau, nhưng nhiều tùy chọn trong số này – chẳng hạn như thay đổi xoá mật khẩu của root trong tệp bootbank – có khả năng thành công là thấp bị gián đoạn ESXi Host.
  • May mắn thay, bạn có thể sử dụng các phương pháp tốt hơn, ít rủi ro hơn, không yêu cầu maintain mode hoặc reboot ESXi Host để thay đổi mật khẩu của user root.

Sau đây là tình huống thay mật khẩu root của ESXi thông qua vCenter hợp lệ và quy trình ổn định nhất các bạn có thể tham khảo:

Tình huống đã đưa các ESXi host vào vCenter:

Nếu bạn có một máy chủ ESXi hoặc vSphere Standalone, bạn sẽ phải cài đặt mật khẩu cho user root ở màn ESXi Console hoặc Web vsphere client.

Nhưng một khi các ESXi đã được thêm vào vCenter Inventory thì quy trình thay đổi mật khẩu của root sẽ ảnh hưởng đến kết nối với vCenter chính vì vậy bạn có thể sử dụng Cấu hình máy chủ ESXi kiểu Host Profiles để thay đổi mật khẩu của root user.

1. Để chuẩn bị cho việc đặt lại mật khẩu, hãy bắt đầu bằng cách di chuyển tất cả các máy ảo quan trọng và không được gián đoạn sang các máy chủ ESXi khác như một biện pháp bảo mật an toàn.

2. Đặt Bộ lập lịch tài nguyên DRS phân tán thành chế độ manual và sau đó mở vSphere Web Client cho vCenter.

3. Bấm phải chuột vào vSphere và chọn menu có popbar: Host Profiles.

4. Tiếp theo, chọn Extract Host Profiles và chọn máy chủ ESXi thích hợp, nhập tên để lưu trữ.

5. Sau khi Extract Host Profile thành công cho ESXi 172.20.10.54, chúng ta chọn Attach Host Profile

Khi Attach…

6. Sau khi Attach… thành công, chúng ta truy cập vào Menu > Policies and Profiles để Sửa lại thông tin đặc biệt mật khẩu của root

7. Chọn mục Host Profiles

Kích đúp vàp Host Profile_67_172.20.10.58:

Bấm chọn Host Profile_6.7_172.20.10.58 > Security and Services

Bấm EDIT HOST PROFILE…

Khi chuyển sang chế độ sửa Host Profiles:

8. Chuyển chế độ thay đổi mật khẩu kiểu Fixed Mục Password

9. Khi chuyển đổi sang Fixed password configuration và thay mật khẩu mới:

10. Sau khi thay đổi thành công mật khẩu mới, chúng ta chọn lại Menu > Hosts> bấm nút phải chuột Chọn mục Remediate…

Chọn trong danh sách

Chúng ta có thể bỏ chọn chế độ: Automatically reboot hosts that require remediation. Để tránh yêu cầu khởi động lại ESXi Host sau khi chạy Remediate

11. Sau khi chạy xong REMEDIATE thì chúng ta có thể kiểm thử lại việc truy cập Web vSphere client ESXi host đã được thay đổi mật khẩu mới cho root.

Nhập mật khẩu cũ cho root:

Và nhập bằng mật khẩu mới thay đổi thì thành công

Sau 1 ngày publish và có bạn học viên phản hồi về việc đã làm giống như trên nhưng lại bị lỗi:

Lưu ý: Các bước làm trên bài viết này của mình là ESXi không join domain, vCenter cũng không Join domain / LDAP configure. phần cấu hình Active Directory Permission bị mờ.

12. Nếu trường hợp chúng ta muốn dùng AD User để truy cập vCenter/ ESXi Host đồng nghĩa với việc các bạn đã cấu hình Join Domain giữa ESXi và AD, thì lại phải chỉnh sửa cấu hình trong Host Profiles phần khai báo thêm về Domain Name, User và mật khẩu thuộc nhóm Domain Admins có quyền join domain AD.

Sau khi bổ sung các thông tin Join Domain và Tài khoản có quyền Domain Admins xong, chúng ta chạy lại lệnh

Chúc các bạn thành công, vận hành Hạ tầng Ảo hoá An toàn!

Bên cạnh các bài viết đã đăng liên quan tới EVC như:

  1. Nested vSphere 6.7 không hỗ trợ EVC trên máy chủ ESXi 6.5
  2. Làm thế nào để cấu hình Nested ESXi 6.0 có thể hỗ trợ bật EVC Clusters
  3. Lỗi không thể cấu hình enable EVC trên vCenter Appliance 6.0
  4. Một số lỗi khi dùng vMotion di chuyển các máy VM giữa các Host khi các ESXi Host bị vượt tải hoặc lỗi Physical

1. Khái niệm:

EVC là từ viết tắt của Enhanced VMotion Compatibility.

EVC có chức năng thúc chuyển các hàm, thuật toán, chứng năng, tính năng giảm các cấp độ của các Chip CPU cuar từng Host trong cụm Cluster DRS xuống một mức độ cân bằng “thấp nhất có thể trong toàn bộ CPU của các Host Cluster” trong đó CPU phần cứng của các Vendor là khác nhau ví dụ: Intel, AMD để có được khả năng tương thích CPU ổn định giữa các máy chủ trong VMware DRS cluster.

2. Ứng dụng của EVC trong các Data Center Ảo hóa – DCV:

  • Có 1 ứng dụng duy nhất: Khi di chuyển các VMs giữa các Host trong cùng cụm vSphere DRS, nếu các Host cũ, mới có các pCPU cùng Vendor và khác Family chip, các VMs sẽ không thể di chuyển được khi đang chạy, và các VMs này bắt buộc phải Power Of/Shutdown Guest OS gây gián đoạn dịch vụ mới có thể di chuyển được [gọi là Cold Migrate].
  • Các DCV sau nhiều năm vận hành thêm bớt, thay đổi Host thì cấu hình pCPU chắc chắn sẽ bị thay đổi theo các công nghệ Chip mới hơn, do vậy việc cấu hình EVC cũng sẽ trở thành bắt buộc.
  • Khi di chuyển các VMs giữa các Hosts trong cụm vSphere DRS thường chúng ta hay quên mất một điều kiện ngầm là: “vMotion yêu cầu các máy chủ ESXi nguồn và đích phải dùng cùng một bộ tính năng, chức năng, thuật toán của pCPU”.

Tham khảo: //kb.vmware.com/s/article/1003212

3. Cơ sở cho cách giải quyết sự khác nhau về Family Chip của EVC:

Để giải quyết vấn đề này, hãy bật Khả năng tương thích vMotion Nâng cao [EVC] trên cụm cluster vSphere DRS:

  • EVC giải quyết vấn đề này bằng cách tạo đường cơ sở “EVC Baseline” được đặt thành cấu hình bộ xử lý ít nâng cao nhất “cấu hình cấp độ vi xử lý có tính năng thấp nhất trong cụm DRS đó” được hỗ trợ/phù hợp với tất cả các máy chủ ESXi trong cụm DRS nói trên.
  • EVC sẽ che giấu tất cả các tính năng thế hệ mới bằng cách chỉ trình bày hiển thị các tính năng, thuật toán, chức năng CPU thông dụng thấp nhất được định nghĩa và cấu hình trên cụm DRS đó.
  • Với đường cơ sở EVC Baseline được định nghĩa và cấu hình, tất cả các máy ảo được cấp nguồn bật cho chạy trong cụm DRS nói trên sẽ chỉ sử dụng các tính năng của bộ xử lý CPU theo của đường cơ sở EVC Baseline nói trên.
  • Đối với máy chủ ESXi có bộ xử lý thuộc các thế hệ khác nhau, bạn sẽ cần tạo đường cơ sở EVC Baseline có thể khác nhau nhằm tránh việc bị giảm tính năng quá xa nhau giữa các CPU vật lý “Tiết kiệm không quá mức”.

4. Cấu hình chế độ EVC trong cụm vSphere DRS:

Bước 1. Xác định tất cả các kiểu / thế hệ CPU trên mỗi máy chủ ESXi trong cụm DRS. Ví dụ: trong 1 con ESXi host có một CPU Model: Intel Xeon E5-2600 v2.

Bước 2. Hãy truy xuất trang VMware Compatibility Guide, và chọn dòng CPU Series, CPU model và Product Release Version sau đó bấm CPU/EVC Matrix.

Bước 2. Xác định tính năng CPU Thấp nhất tương thích trên tất cả các máy chủ ESXi trong cụm vSphere DRS:

Ví dụ: như trong hình trên, Mẫu CPU Intel Xeon E5-2600 v2 hỗ trợ các đường cơ sở EVC Baseline sau:

  • Intel® Westmere [oldest generation]
  • Intel® Nehalem
  • Intel® Penryn
  • Intel® Merom
  • Intel® Ivy-Bridge
  • Intel® Sandy-Bridge
  • Intel® Haswell [newer generation]

Bước 3. Trong mục inventory của vCenter Server, chọn cụm Cluster.

Bước 4. Tắt nguồn tất cả các máy ảo trên máy chủ có bộ tính năng lớn hơn [mới hơn] so với chế độ EVC.

Bước 5. Bấm chuột vào tab Cấu hình, chọn VMware EVC và bấm vào mục Chỉnh sửa.

Bước 6. Bật EVC theo nhà cung cấp Chip “Vendor CPU” và chọn bộ tính năng, thuật toán, phù hợp cho các máy chủ trong cụm DRS đó và bấm OK.

Bước 7. Bật nguồn các máy ảo trong cụm DRS để áp dụng chế độ EVC.

Lưu ý: Nếu một máy chủ ESXi mới được thêm vào cụm hỗ trợ EVC, các tính năng CPU của máy chủ ESXi sẽ phản ánh các tính năng cơ bản EVC Baseline đã được định nghĩa và cấu hình. Máy chủ ESXi nên được thêm vào khi đang ở chế độ bảo trì “Maintaining mode” và ESXi Host mới thêm vào cụm nên có cấu hình pCPU gần giống với cụm DRS đang bật EVC để tiết kiệm.

Tham khảo: //docs.vmware.com/en/VMware-vSphere/6.7/com.vmware.vsphere.vcenterhost.doc/GUID-03E7E5F9-06D9-463F-A64F-D4EC20DAF22E.html

5. Bảng phụ lục tham chiếu các EVC Baselines:

nếu một bộ xử lý có thể hỗ trợ EVC ở cấp độ level XN, nó cũng có thể hỗ trợ các mức XN-1 đến X0.

Ví dụ: một bộ xử lý hỗ trợ Đường cơ sở EVC thế hệ Intel “Sandy Bridge” có mức EVC là L4 [xem Bảng 1.1]. Do đó, nó cũng có thể hỗ trợ các mức EVC L3, L2, L1 và L0. Tuy nhiên, nó không thể hỗ trợ EVC cấp L5, tương ứng với Thế hệ Intel “Ivy Bridge”.

Bảng mô tả đường cơ sở phù hợp với CPU Intel EVC Baselines

EVC Level

EVC Baseline

Description

L0

Intel “Merom” Gen. [Intel Xeon Core™ 2]

Applies baseline feature set of Intel “Merom” Generation [Intel Xeon Core™ 2] processors to all hosts in the cluster.

L1

Intel “Penryn” Gen. [formerly Intel Xeon 45nm Core™ 2]

Applies baseline feature set of Intel “Penryn” Generation [Intel Xeon 45nm Core™ 2] processors to all hosts in the cluster. Compared to the Intel “Merom” Generation EVC mode, this EVC mode exposes additional CPU features including SSE4.1.

L2

Intel “Nehalem” Gen. [formerly Intel Xeon Core™ i7]

Applies baseline feature set of Intel “Nehalem” Generation [Intel Xeon Core™ i7] processors to all hosts in the cluster. Compared to the Intel “Penryn” Generation EVC mode, this EVC mode exposes additional CPU features including SSE4.2 and POPCOUNT.

L3

Intel “Westmere” Gen. [formerly Intel Xeon 32nm Core™ i7]

Applies baseline feature set of Intel “Westmere” Generation [Intel Xeon 32nm Core™ i7] processors to all hosts in the cluster. Compared to the Intel “Nehalem” Generation mode, this EVC mode exposes additional CPU features including AES and PCLMULQDQ.

Note: Intel i3/i5 Xeon Clarkdale Series processors that do not support AESNI and PCLMULQDQ cannot be admitted to EVC modes higher than the Intel “Nehalem” Generation mode.

Note: Intel Atom™ C2300-C2700 processors support the Intel “Westmere” Gen. EVC baseline although their architecture is different from the architecture of the Intel “Westmere” Generation processors.

L4

Intel “Sandy Bridge” Generation

Applies baseline feature set of Intel “Sandy Bridge” Generation processors to all hosts in the cluster. Compared to the Intel “Westmere” Generation mode, this EVC mode exposes additional CPU features including AVX and XSAVE.

Note: Intel “Sandy Bridge” processors that do not support AESNI and PCLMULQDQ cannot be admitted to EVC modes higher than the Intel “Nehalem” Generation mode.

L5

Intel “Ivy Bridge” Generation

Applies baseline feature set of Intel “Ivy Bridge” Generation processors to all hosts in the cluster. Compared to the Intel “Sandy Bridge” Generation EVC mode, this EVC mode exposes additional CPU features including RDRAND, ENFSTRG, FSGSBASE, SMEP, and F16C.

Note: Some Intel “Ivy Bridge” processors do not provide the full “Ivy Bridge” feature set. Such processors cannot be admitted to EVC modes higher than the Intel “Nehalem” Generation mode.

L6

Intel “Haswell” Generation

Applies baseline feature set of Intel “Haswell” Generation processors to all hosts in the cluster. Compared to the Intel “Ivy Bridge” Generation EVC mode, this EVC mode exposes additional CPU features including ABMX2,AVX2, MOVBE, FMA, PERMD, RORX/MULX, INVPCID, VMFUNC.

L7

Intel “Broadwell” Generation

Applies the baseline feature set of Intel “Broadwell” Generation processors to all hosts in the cluster.

Compared to the Intel® “Haswell” Generation EVC mode, this EVC mode exposes additional CPU features including Transactional Synchronization Extensions, Supervisor Mode Access Prevention, Multi-Precision Add-Carry Instruction Extensions, PREFETCHW and RDSEED

L8

Intel “Skylake” Generation

Applies the baseline feature set of Intel “Skylake” Generation processors to all hosts in the cluster.

Compared to the Intel® “Broadwell” Generation EVC mode,this EVC mode exposes additional CPU features including Advanced Vector Extensions 512, Persistent Memory Support Instructions, Protection Key Rights, Save Processor Extended States with Compaction, and Save Processor Extended States Supervisor

L9

Intel “Cascade Lake” Generation

Applies the baseline feature set of Intel® “Cascade Lake” Generation processors to all hosts in the cluster.

Compared to the Intel® “Skylake” Generation EVC mode, this EVC mode exposes additional CPU features including VNNI and XGETBV with ECX = 1.

Bảng mô tả đường cơ sở phù hợp với CPU AMD EVC Baselines

EVC Level

EVC Baseline

Description

A0

AMD Opteron™ Generation 1

Applies baseline feature set of AMD Opteron™ Generation 1 [Rev. E] processors to all hosts in the cluster.

A1

AMD Opteron™ Generation 2

Applies baseline feature set of AMD Opteron™ Generation 2 [Rev. F] processors to all hosts in the cluster. Compared to the AMD Opteron™ Generation 1 EVC mode, this EVC mode exposes additional CPU features including CPMXCHG16B and RDTSCP.

A3

AMD Opteron™ Generation 3

Applies baseline feature set of AMD Opteron™ Generation 3 [Greyhound] processors to all hosts in the cluster. Compared to the AMD Opteron™ Generation 2 EVC mode, this EVC mode exposes additional CPU features including SSE4A, MisAlignSSE, POPCOUNT and ABM [LZCNT].

Note: Due to 3DNow!™ support being removed from AMD processors after mid 2010, use AMD Opteron™ Generation 3 [no 3DNow!™] when possible to avoid compatibility issues with future processor generations.

A2, B0

AMD Opteron™ Generation 3 [no 3DNow!™]

Applies baseline feature set of AMD Opteron™ Generation 3 [Greyhound] processors with 3DNow!™ support removed, to all hosts in the cluster. This mode allows you to prepare clusters containing AMD hosts to accept AMD processors without 3DNow!™ support.

B1

AMD Opteron™ Generation 4

Applies baseline feature set of AMD Opteron™ Generation 4 [Bulldozer] processors to all hosts in the cluster. Compared to the AMD Opteron™ Generation 3 [no 3DNow!™] EVC mode, this EVC mode exposes additional CPU features including SSSE3, SSE4.1, AES, AVX, XSAVE, XOP, and FMA4.

B2

AMD Opteron™ “Piledriver” Generation

Applies baseline feature set of AMD Opteron™ “Piledriver” Generation processors to all hosts in the cluster. Compared to the AMD Opteron™ Generation 4 EVC mode, this EVC mode exposes additional CPU features including FMA, TBM, BMI1, and F16C.

B3

AMD Opteron™ “Steamroller” Generation

Applies baseline feature set of AMD Opteron™ “Steamroller” Generation processors to all hosts in the cluster. Compared to the AMD Opteron™ “Piledriver” EVC mode, this EVC mode exposes additional CPU features including XSAVEOPT RDFSBASE, RDGSBASE, WRFSBASE, WRGSBAS and FSGSBASE.

B4

AMD “Zen” Generation

Applies baseline feature set of AMD “Zen” Generation processors to all hosts in the cluster.

Compared to the AMD Opteron™ “Steamroller” EVC mode, this EVC mode exposes additional CPU features including RDRAND, SMEP, AVX2, BMI2, MOVBE, ADX, RDSEED, SMAP, CLFLUSHOPT, XSAVES, XSAVEC, SHA, and CLZERO

B5

AMD “Zen 2” Generation

Applies the baseline feature set of AMD “Zen 2” Generation processors to all hosts in the cluster.

Compared to the AMD “Zen” Generation EVC mode, this EVC mode exposes additional CPU features including CLWB, UMIP, RDPID, XGETBV with ECX = 1, WBNOINVD, and GMET.

Chúc các bạn quản lý, vật hành, cấu hình và triển khai DCV an toàn, tối ưu và ổn định cao!

Chúc mừng năm mới 2021!

I.Yêu cầu:

Làm thế nào chúng ta có thể di chuyển 1 VM là vCenter Appliance 6.7 đang vận hành trên 1 ESXi Host [cũ/ nguồn] sang 1 ESXi Host khác [mới/ đích] trong khi không hề có cấu hình Data Share Storage giữa các Host [cũ/ mới] nói trên.

II. Một số thông tin phân tích xẩy ra trong User Account đang điều khiển ESXi và vCenter Appliance 6.7:

  1. Người dùng này chỉ có quyền Valid Consolidate Backup VM
  2. License chưa xác định rõ vì không có quyền nhìn License Key Management trong vCenter Appliance 6.7
  3. Các điều khiển Migrate… bị mờ khi truy cập Web vSphere Client
  4. Không điều khiển Migrate VCSA 6.7 VM từ Host cũ sang Host mới vì bị mờ [hoặc không có quyền?]
  5. VMware vCenter Server Appliance 6.7.0.42000.
  6. Muốn xác định License có phải là dạng Essential? [Lưu ý: License vSphere Essentials không có tính năng vSphere vMotion] [Tham khảo: //www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/products/vsphere/vmware-vsphere-vsom-pricing-whitepaper.pdf]

Phần Migrate bị mờ không điều khiển được.

III. Làm rõ các chi tiết lỗi không thực hiện được, tiêu chuẩn vMotion và xác định cách thức xử lý:

1. 2 Data-storage này là không cấu hình Share storage, nghĩa là các host đang chứa VCSA 6.7 lại không map/mount với các Data storage đang mount với ESXi mới?

2. Phần migrate bị mờ khi đang điều khiển vCenter Appliance là do người dùng đnag truy cập Web vSphere client bằng Flex/Flash, hãy đổi sang trình duyệt dùng HTML5.

Vậy muốn vMotion / Migration sang Datastorage khác thì các ESXi host đang chứa con VCSA phải mount với Datastorage cần di chuyển tới

3. Truy cập được Migrate bằng trình duyệt html 5, nhưng lại mờ chỉ chọn được ngầm định “Change compute resource only”

  • Đây là do không cấu hình mạng vMotion VMkernel?
  • Các Data Store giữa các Host là dạng Local và không cấu hình Share Storage giữa các ESXi Host?
  • License của vSphere vẫn chưa xác định chắc chắn là Essential vSphere?
  • Quyền của người đang truy cập vào vCSA 6.7 VM không phải là Administrator Role, đang là VMware Consolidated Backup.

IV. Cách thức xử lý:

Cách 1:

  1. Truy cập Web vSphere Client tới con ESXi/ESX host đang chứa và chạy con VCSA 6.7 virtual machine.
  2. Tắt tạm thời con VCSA virtual machine.
  3. Bấm menu File > Export > Export OVF Template.
  4. Tiếp theo lại truy cập con Web vSphere Client của con ESXi/ESX host đích đến của con VCSA 6.7.
  5. Bấm menu File – và chọn Deploy OVF Template.
  6. Sau khi deploy xong, bấm Power on cho chạy lại con VCSA 6.7 virtual machine.

Cách 2:

  • Clone con VCSA 6.7 từ Host cũ sang Host khác:
  • Chọn VCSA 6.7 VM từ mục Inventory.
  • Bấm phải chuột vào VCSA 6.7 VM và bấm chọn Clone.
  • Chọn tiếp là đích đến ESXi/ESX host.
  • Bấm tắt VCSA đang chạy trên ESXi source host.
  • Sau khi clone xong, bạn sẽ bật lại VCSA 6.7 VM trên Host đích đã hoàn thành Clone.

Clone bị mờ, điều này chứng tỏ quyền của người đang truy cập vCSA 6.7 VM không có quyền làm các việc vMotion, Migrate, Mount storage, Clone…

Cách 3.

Dùng phương án Backup qua Web Appliance Console cổng 5480 của vCSA 6.7 và cấu hình mục backup –> đẩy qua FTP server 1 bản backup con VCSA 6.7

Sau đó lại Restore trên ESXi Host khác.

Tham khảo: //www.vmwareblog.org/backup-restore-vmware-vcsa-6-7/

Hoặc

Backup và Restore PSC, VCSA 6.7 HA

Tham khảo: //thangletoan.wordpress.com/2019/12/10/cach-backup-va-restore-psc-vcenter-va-vcenter-ha-6-7-an-toan/

Cách 4.

Dùng Veeam Backup Restore and Replicate để sao chép và di chuyển, nhưng về bản chất vẫn cần quyền Administrator Role,

vì phải mở được Inventory của ESXi Host nguồn và ESXi Host đích, vì vậy nó dùng root hoặc user administrator role để copy và đóng gói VBK/VBM cho con VCSA 6.7 VM

Nếu đã thêm 2 ESXi Host vào VBR inventory bằng user root, thì lúc đó chỉ việc Power off VCSA 6.7 VM và backup vào 1 Data storage USB External.

Sau đó dùng Restore vào ESXi Host đích [cũng đã được add host inventory vào VBR].

Tham khảo: //www.veeam.com/blog/how-to-move-a-vmware-vm-from-one-host-to-another-without-vmware-vmotion.html

Chủ Đề