Horizon View 7.3 : event id 2091/2093

Comme vous le savez Horizon view repose sur une base ADAM repliquée entre les divers Connections Servers, c’est bien… c’est beau tant que ça se réplique bien, le jour où vous rencontrez des problèmes de réplication alors il sera grand temps de vous souvenir de votre expérience AD. De notre côte sur une infra 7.3 avec 3 connections Servers nous avons rencontré les event id 2091 et 2092.

Ownership of the following FSMO role is set to a server which is deleted or does not exist.
 
Operations which require contacting a FSMO operation master will fail until this condition is corrected.
 
FSMO Role: CN=Partitions,CN=Configuration,CN={F82E0D4A-16B0-44B1-91B7-5F5A08BD619A}
FSMO Server DN: CN=NTDS Settings\0ADEL:8f620d83-00d8-4b15-87fc-97430126a71e,CN=Server01$VMwareVDMDS\0ADEL:b5ebd2b8-1345-48ab-bb4c-554090afca20,CN=Servers,CN=Default-First-Site-Name,CN=Sites,CN=Configuration,CN={F82E0D4A-16B0-44B1-91B7-5F5A08BD619A}

This server is the owner of the following FSMO role, but does not consider it valid. For the partition which contains the FSMO, this server has not replicated successfully with any of its partners since this server has been restarted. Replication errors are preventing validation of this role.
 
Operations which require contacting a FSMO operation master will fail until this condition is corrected.
 
FSMO Role: CN=Schema,CN=Configuration,CN={F82E0D4A-16B0-44B1-91B7-5F5A08BD619A}


Nous comprenons rapidement que nous n’avons pas de schema master, pour confirmer cela on ouvre un “Active Directory Schema” (via une mmc)

Et voila la source de notre problème


Afin de pouvoir forcer un schema master, nos amis de VMware nous ont pondu la KB2083758 qui va nous permettre de configurer un nouveau Shema Master (attention l’étape 8 n’est pas obligratoire, nous l’avons rajoutée car dans notre cas il fallait forcer le “naming master”).

  1. To open the command prompt:
    • Click Start.
    • Right-click Command Prompt and then click Run as administrator.
  2. In the command prompt, run this command:
    dsmgmt
  3. In the dsmgmt command prompt, run this command:
    roles
  4. In the fsmo maintenance command prompt, run this command:
    connections
  5. In the server connections command prompt, run this command:
    connect to server computername:portnumber
    where computername:portnumber is the computer name and communications port number of the AD LDS instance that you want to use as the new schema master.
  6. In the server connections command prompt, run this command:
    quit
  7. In the fsmo maintenance command prompt, run this command:
    seize schema master
  8. (Etape rajoutée) In the fsmo maintenance command prompt, run this command:
    seize naming master
  9. Type exit and press Enter


Une fois les commandes passées nous avons bien un nouveau schema master et plus d’erreurs dans les events log de nos Connection Server

Server “Server01:389” knows about 2 roles


Schema – CN=NTDS Settings,CN=Server01$VMwareVDMDS,CN=Servers,CN=Default-First-Site-Name,CN=Sites,CN=Configuration,CN={F82E0D4A-16B0-44B1-91B7-5F5A08BD619A}

Naming Master – CN=NTDS Settings\0ADEL:8f620d83-00d8-4b15-87fc-97430126a71e,CN=Server01$VMwareVDMDS\0ADEL:b5ebd2b8-1345-48ab-bb4c-554090afca20,CN=Servers,CN=Default-First-Site-Name,CN=Sites,CN=Configuration,CN={F82E0D4A-16B0-44B1-91B7-5F5A08BD619A}

Post to Twitter

Horizon 7.10 error : warning Echec de la connexion

Suite à la migration d’un environnement Horizon view 7.3 vers 7.10, on nous a remonté une erreur de connexion à la console d’administration HTML5 avec les navigateurs Chrome (79.0.3945.117 – Build officiel – 32 bits ) et Firefox (72.0.1 – 32 bits).

 

Le problème se produit uniquement avec Chrome et Firefox… qui a dit que Internet Explorer était un mauvais navigateur 🙂 .

 

Ce problème de connection peut-être résolu en modificant le fichier “locked.properties” (dans le cadre d’un problème d’affichage HTML5 via le navigateur Edge et en passant par des F5 nous avions deja eu l’occasion de jouer avec le fichier “locked.properties”). Revennons à nos moutons, la KB2144768 chez VMware nous donne la liste des actions à réaliser afin résoudre ce problème de connexion.

  1. Créer le fichier C:\Program Files\VMware\VMware View\Server\sslgateway\conf\ locked.properties
  2. Ajouter la ligne : checkOrigin=false
  3. Redémarrer le service « Composant VMware Horizon View Security Gateway” (wstunnel)

 

Voila ça c’est fait (il nous reste encore quelques bugs qui feront l’objet d’autres posts 🙂 )

Post to Twitter

Horizon View 7.8 : vmware view error during provisioning initial publish failed fault type is VC_FAULT_FATAL

Lors de l’intégration d’un serveur composer dans une infra  Horizon View 7.8 on nous a remonté l’erreur ci-dessous lors du déploiement de machines au sein d’un pool de postes de travail en “Automated, instant clone, floating”.

 

vmware view error during provisioning initial publish failed fault type is VC_FAULT_FATAL

 

Au départ nous pensions à un problème de permissions sur le Vcenter, mais en regardant de plus près sur la configuration du vCenter/Composer dans la console “Horizon 7 Administrator” nous avons constaté que le vCenter était configuré avec un compte local

 

Et si on configurait l’accès au vCenter avec un compte de service du domaine 🙂

 

Une fois le compte local remplacé par un compte de service du domaine (avec les permissions adéquates) le déploiement de machines a pu se faire sans problème.

 

Nous avons mis le même compte de service pour le vCenter et le Composer 😉

Post to Twitter

vSAN : Rechercher un disque

La lecture du titre de ce post vous laisse dubitatif avouez le 🙂 .

Dernièrement nous avons dù identifier physiquemebt un disque (au sein d’un disque group) qui rencontrait de grosses latences (entre 15000 ms et 45000 ms), un remplacement rapide s’imposait donc.

Le problème est que nous avons pu identifier le disque au sein du disque groupe via son naa, mais comment l’identifier physiquement sur l’ESXi (serveur CISCO UCS-C240-M4SX) ? Dans UCS Central aucune alarme ne remontait côté disque (normal il n’y a pas de problème hardware vous nous direz) et en ESXCLI on ne remonte pas d’informations de type PID permettant de faire le lien entre le naa. et le disque dans UCS. Dans le Vcenter, sur l’ESXi dans l’onglet “Configure” –  “Storage-Storage Device” vous avez un bouton qui permet (logiquement) d’allumer la led d’un disque  selectionné (le fameux “turn on ou turn off disk locator”), mais dans notre cas cela ne fonctionnait pas. 

On a beau cliquez ça reste vert 🙁 .

En googlelant nous sommes tombés sur la commande ci-dessous qui permet d’allumer (ou clignoter) la led d’un disque.

esxcli storage core device set -d naa.50000397885347bd -l=locator -L=600

Après avoir trouver une âme charitable dans le Datacenter, le collègue a pu nous donner la position du disque dans le serveur en vue de son prochain remplacement.

Post to Twitter

vSAN : Supprimer un objet dans le “Resyncing Component”

Dans un Vcenter 6.5.0 (build 5318154) au sein d’un cluster vSAN (version : 6.6) nous avons remarqué la présence d’un objet orphelin dans l’onglet “Resyncing Components”.

L’objet avait été supprimé il y a quelque temps, mais visiblement vSAN ne l’entend pas de cette oreille 🙂

Nous avons constaté que le vSAN Health était en jaune en GUI et via la commande ci-dessous.

esxcli vsan health list
Ok on est en yellow, next ?


Le problème en l’état, c’est que nous ne connaissons pas l’objet récalcitrant, afin de le retrouver nous avons lancé la commande ci-dessous.

esxcli vsan debug resync list
Voila notre objet est désormais identifié.


Afin de supprimer un objet récalcitrant il existe une commande qui permet de supprimer des objets, cependant cette commande est à utiliser avec parcimonie 😉 .

/usr/lib/vmware/osfs/bin/objtool delete "your object" -f -v 10
Et là, mauvaise nouvelle, la commande se termine par un failed 🙁 .


Du coup on décide de lancer les commandes ci-dessous au cas où.

esxcli vsan debug resync list

esxcli vsan health cluster list
Et voila tout est en green, la commande objtool a visiblement quand même fait un petit nettoyage 🙂
Côté GUI 😉

Post to Twitter

Vcenter error : esx.problem.hyperthreading.unmitigated

Si comme nous, vous rencontrez l’erreur “esx.problem.hyperthreading.unmitigated” sur un host ESXi dans votre Vcenter (dans notre cas un Vcenter 6.5) après l’application de patch, alors là KB57374 va vous aider a supprimer rapidement cette erreur et à comprendre son origine.

On va quand même pas désactiver l’hyperthreading quand même 🙂

Comme l’explique la KB57374, il suffit de forcer la valeur “UserVars.SuppressHyperthreadWarning” à 1 afin de supprimer ce message dans les options avancées (Onglet Configure, puis aller dans System-Advanced System Settings) de l’ESXi, mais comme on est sympa on vous donne aussi la version en CLI.

Get-VMHost MyESXi | Get-AdvancedSetting -Name 'UserVars.SuppressHyperthreadWarning' | Set-AdvancedSetting -Value 1

Post to Twitter

ESXi 6.5: Erreur lors de l’installation

Lors de l’instalation d’un ESXi 6.5 (sur un Cisco UCS C220 M5) nous avons rencontré l’erreur ci-dessous (hé oui on ne fait pas que du Citrixm 🙂 .

partedUtil failed with message: b”Error: Can’t have a partition outside the disk!nUnable to read partition table for device /vmfs/devices/disk/eui.00a0504658335330\n\n”.


En googlelant nous sommes tombés sur la KB2082806, ce qui nous a amené à faire un Erase du Virtual Drive  via la CIMC (Cisco Integrated Management Controller) du server.

Selectionnez le Virtual Drive puis cliquez sur le bouton “Erase Virutal Divre”


Une fois l’erase du “Virtual Drive” réalisé, l’installation a pu être réalisée sans problème.

Post to Twitter

Big news : rachat de NORSKALE

Comme vous le savez nous suivons NORSKALE depuis sa création (voir notre billet de 2012 ici), donc pour ceux qui ne le savent pas encore (pourtant ça a pas mal buzzé) NORSKALE a été racheté par CITRIX (le 08 septembre 2016).

Il était temps que CITRIX réagisse face à la concurrence (notamment VMware avec le rachat d’Immidio en 2015) , nous allons suivre avec attention l’intégration de NORSKALE au sein de l’offre CITRIX 😉 .

,

norskale

 

Au passage Pierre devient “Principal Architect” chez CITRIX (on devrait peut-être plus se croiser du coup 🙂 ).

 

 

cocoricoDésolé on a pas résistez

 

 

Post to Twitter

Erreur lors la création d’un volume VMFS

Sur notre lab @home, lors de la création d’un volume VMFS nous obtenions l’erreur suivante :

 Call “HostDatastoreSystem.QueryVmfsDatastoreCreateOptions” for object “datastoresystem-9” on vCenter Server “NotreVcenter″ failed.


en Fr ça donne ça (casdedi à un binôme de choc)
 

Au vu de nos déboires avec notre ML110 G7, on se dit que comme la carte raid B110i n’est pas prise en charge (raid software) par ESXi, l’erreur doit venir de la (he oui notre niveau en VMouaire est bas…très bas 🙂 . Bref on tente quand même d’aller un peu plus loin en se connectant en SSH sur notre host.

La commande ls /vmfs/devices/disks/ nous permet dans un premier temp de voir nos disques.
 


Dans l’encadré rouge les deux disques causant problèmes.
 

Dans un second temps nous avons essayé de passer par la commande :
partedUtil delete “/vmfs/devices/disks/t10.ATA_____WDC_WD5000AAKS2D00A7B2___                                                                                                                               _____________________WD2DWCASY5424732” 1

Mais nous obtenions l’erreur suivante :
Error: Both the primary and backup GPT tables are corrupt. Try making a fresh t able, and using Parted’s rescue feature to recover partitions.
Unable to construct disk from device /vmfs/devices/disks/t10.ATA_____WDC_WD5000A AKS2D00A7B2________________________WD2DWCASY5424732

La seule solution a été de passer par la commande :
partedUtil mklabel /vmfs/devices/disks/t10.ATA_____WDC_WD5000AAKS2D00D2B0___                                                                                                                               _____________________WD2DWCASY8638632 gpt

Une fois la commande parted mklabel…. passée sur les disques causant problème nous avons pu créer nos volumes VMFS 🙂 .
 


Les billets traitant ce type de problème :
http://www.ivobeerens.nl/2011/12/19/unable-to-create-vmfs-partition/
http://www.vspecialist.co.uk/fixing-hostdatastoresystem-queryvmfsdatastorecreateoptions-issue/
http://www.simonlong.co.uk/blog/2011/09/09/esxi5-hostdatastoresystem-queryvmfsdatastore/ 

Post to Twitter

PSOD sur Proliant ML110 G7

Lors de l’installation d’ESXi 5.0 sur notre Proliant ML110 G7 (@home) nous avons rencontré un beau PSOD (Purple Screen Of Death).

Un google après nous tombons sur le thread “VMWARE ESXi 5.0 on Proliant ML110 G7”  sur le HP Communities, qui explique que le problème vient du  “Power Regulator mode” qu’il faut paramétrer sur “OS control mode“.

Il est possible de paramétrer le “Power Regulator Mode” via le BIOS ou bien L’ILO.

Configuration via le BIOS :
Allez dans “Power Management Option” -” HP Power Regulator” et choisissez “OS Control Mode”.

Configuration via l’ILO :
Allez dans “Power Management”, cliquez sur “Power Setting”s et choisissez  “Os Control Mode”.

Un reboot après ESXi s’install sans problème 😉 .

Mais ESXi vs Proliant ML110 G7 ne s’arrête pas la malheureusement (problème de RAID notamment).

Post to Twitter