ESXi Archive

0

Host hardware system board status

Sur plusieurs Vcenter 6.5/6.7 nous avons rencontré l’erreur “Host hardware system board status” sur des ESXi 6.5/6.7 (UCS-240-M4). En regardant côté CIMC (Cisco Integrated Management Controller) on n’a rien constaté au premier abord (pas d’alerte hardware ou autre). En navigant dans la CIMC dans l’onglet SEL (System Event Log) nous avons constaté que ce dernier était full, en faisant un clear log cela nous a permis de corriger l’alarme “Host hardware system board status”.


Il est aussi possible de faire un clear du SEL via SSH et REST API

En SSH :
Se connecter en SSH sur le serveur puis entrer les commandes ci-dessous :

  • show sel (si vous souhaitez au préalable visualiser le pourcentage d’occupation des log)L’attribut alt de cette image est vide, son nom de fichier est SEL01.png.
  • scope sel
  • clear (le screeenshoot ci-dessous montre le résultat de la commande show après un clear

En Rest API :

  • https://10.10.10.10/redfish/v1/Chassis/1/LogServices/SEL/Actions/LogService.ClearLog


Si vous souhaitez plus d’infos sur les CLI CISCO UCS c’est juste en dessous.

Post to Twitter

Tags: , , ,
2

Erreur lors la création d’un volume VMFS

Sur notre lab @home, lors de la création d’un volume VMFS nous obtenions l’erreur suivante :

 Call “HostDatastoreSystem.QueryVmfsDatastoreCreateOptions” for object “datastoresystem-9” on vCenter Server “NotreVcenter″ failed.


en Fr ça donne ça (casdedi à un binôme de choc)
 

Au vu de nos déboires avec notre ML110 G7, on se dit que comme la carte raid B110i n’est pas prise en charge (raid software) par ESXi, l’erreur doit venir de la (he oui notre niveau en VMouaire est bas…très bas 🙂 . Bref on tente quand même d’aller un peu plus loin en se connectant en SSH sur notre host.

La commande ls /vmfs/devices/disks/ nous permet dans un premier temp de voir nos disques.
 


Dans l’encadré rouge les deux disques causant problèmes.
 

Dans un second temps nous avons essayé de passer par la commande :
partedUtil delete “/vmfs/devices/disks/t10.ATA_____WDC_WD5000AAKS2D00A7B2___                                                                                                                               _____________________WD2DWCASY5424732” 1

Mais nous obtenions l’erreur suivante :
Error: Both the primary and backup GPT tables are corrupt. Try making a fresh t able, and using Parted’s rescue feature to recover partitions.
Unable to construct disk from device /vmfs/devices/disks/t10.ATA_____WDC_WD5000A AKS2D00A7B2________________________WD2DWCASY5424732

La seule solution a été de passer par la commande :
partedUtil mklabel /vmfs/devices/disks/t10.ATA_____WDC_WD5000AAKS2D00D2B0___                                                                                                                               _____________________WD2DWCASY8638632 gpt

Une fois la commande parted mklabel…. passée sur les disques causant problème nous avons pu créer nos volumes VMFS 🙂 .
 


Les billets traitant ce type de problème :
http://www.ivobeerens.nl/2011/12/19/unable-to-create-vmfs-partition/
http://www.vspecialist.co.uk/fixing-hostdatastoresystem-queryvmfsdatastorecreateoptions-issue/
http://www.simonlong.co.uk/blog/2011/09/09/esxi5-hostdatastoresystem-queryvmfsdatastore/ 

Post to Twitter

Tags: ,