Estando de cara al cliente en mi dia a dia me he dado cuenta que muchos clientes siguen utilizando vSphere en sus versiones 8.x sin conocer las nuevas funcionalidades, y operandolo como si nunca hubiera existido un update que mejora el rendimiento, la seguridad o la gestiĂłn del entorno virtual.
Con el fin de fomentar la adopciĂłn de VMware Cloud Foundation, he creado una serie de blogs que resumen las mejoras o What’s New de vSphere 8.x, abordando caracterĂsticas como la escalabilidad, la integraciĂłn con la nube, la resiliencia y herramientas de administraciĂłn que simplifican la labor del administrador de sistemas.
Sin mas preámbulo les dejo los links a cada una de ellas. Les aseguro que no les tomará mas de 20 minutos comocer todo lo que vSphere nos trajo antes de la version 9.x.
¡IMPORTANTE! He migrado blog del dominio nachoaprendevirtualizacion.com a nachoaprendeit.com. Si te ha servido este artĂculo deja tu buen Like y compártelo con tus colegas, estas aciones me ayudarán a optimizar los motores de bĂşsqueda para llegar a más personas, y a motivarme a seguir compartiendo este tipo de artĂculos.
TODOS LOS NOMBRES DE VMS USADOS EN ESTE BLOG SON INVENTADOS Y OBEDECEN A UN AMBIENTE DE LABORATORIO PROPIO, UTILIZADO PARA FINES DE ESTUDIO.
¡Bienvenidos a un ultimo capĂtulo de esta serie de posts donde exploramos la evoluciĂłn de vSphere 8.x! En esta ocasiĂłn hablaremos de vSphere 8.0 Update 3, liberado el 25 de junio de 2024, una de las actualizaciones más completas de la serie 8.x.
El objetivo sigue siendo el mismo: dar a nuestros clientes, partners y comunidad una visiĂłn clara de las mejoras que VMware ha ido incorporando en cada release. Y es que, aunque ya estamos viendo llegar VMware Cloud Foundation 9, la mayorĂa de las organizaciones hoy en dĂa siguen ejecutando cargas crĂticas sobre vSphere 8.x.
Kubernetes desacoplado de vCenter: ahora el servicio VKS tiene lanzamientos asĂncronos alineados con versiones upstream que le nos permite actualizar el cluster de Kubernetes independientemente de los upgrades del vCenter o Supervisor.
Autoscaling nativo para clĂşsteres Kubernetes (minima versiĂłn soportada v1.25):
Escala nodos cuando aumenta la demanda.
Escala hacia abajo cuando hay recursos sobreutilizados.
Soporte para vSAN Stretched Cluster permite desplegar clústeres de Kubernetes sobre una infraestructura vSAN distribuida en dos sitios geográficos distintos. Gracias a esto, si un sitio completo falla, el otro puede seguir operando, garantizando alta disponibilidad y resiliencia para las cargas de trabajo de Kubernetes.
Rotación automática de certificados del Supervisor sin intervención manual (solo alerta si falla). En vSphere 8.0 U3 elimina la necesidad de intervención manual cuando un certificado está por expirar. El sistema se encarga de renovar los certificados de forma automática antes de su vencimiento.en vSphere 8.0 U3 elimina la necesidad de intervención manual cuando un certificado está por expirar. El sistema se encarga de renovar los certificados de forma automática antes de su vencimiento.
Backup & Restore de VMs en namespaces vĂa VADP, con recreaciĂłn automática de objetos del Supervisor.
En vSphere 8.0 U3 se habilita la integración del VM Service con Advanced Data Protection (VADP) para realizar backup y restore de máquinas virtuales dentro de namespaces.
VM Class expandida: más opciones de hardware administradas desde el vCenter UI.
Local Consumption Interface (LCI): Ofrece una interfaz gráfica que simplifica el consumo de servicios básicos, permitiendo desplegar VMs y clústeres de Kubernetes con generación automática de YAML y soporte para configuraciones como balanceadores de carga y volúmenes persistentes, reduciendo la complejidad y acelerando las operaciones.
Lifecycle Management
Mantener la infraestructura actualizada sin interrumpir el negocio es clave. En vSphere 8.0 U3 encontramos avances en la forma de actualizar, configurar y parchar nuestro entorno, con menos caĂdas y más control. Revisemos estas mejoras en la gestiĂłn del ciclo de vida.
vCenter Reduced Downtime Update: migraciĂłn con switchover automático u opcional manual, minimizando la caĂda del servicio.
vSphere Configuration Profiles: gestiĂłn declarativa de configuraciĂłn a nivel de clĂşster, con soporte de baselines.
vSphere Lifecycle Manager (vLCM):
Live Patch: aplicar parches sin evacuar VMs.
Staging, remediaciĂłn paralela y soporte para hosts standalone.
Modo HA: active/standby con failover transparente.
Modo Capacidad: 2 DPUs independientes, duplicando capacidad de offload.
CPUs y memoria
Soporte optimizado para Intel Xeon y AMD EPYC con aceleradores integrados (QAT, AMX, AVX-512).
Scheduler mejorado para CPUs de muchos nĂşcleos.
NVMe para memoria (Tech Preview): más cargas in-memory con menor TCO.
GPUs
Perfiles flexibles de vGPU con mezcla de workloads gráficos y de cómputo.
Cluster-level GPU Monitoring: visibilidad centralizada de consumo.
Mejoras en movilidad de VMs con vGPU, con control de stun time en vMotion.
Availability & Resilience
La alta disponibilidad no es opcional en entornos crĂticos. Con esta actualizaciĂłn, vSphere introduce mejoras para mantener los clĂşsteres resilientes y con menor footprint, asegurando continuidad incluso en escenarios distribuidos. Veamos los cambios más relevantes.
vSphere Cluster Service embebido en ESXi:
Solo 2 VMs por clĂşster.
Sin footprint en almacenamiento.
Fault Tolerance para Metro Clusters (vSAN y no-vSAN): permite ubicar primario y secundario en sitios distintos.
TLS & Cipher Suite Profiles: configuraciĂłn rápida de suites modernas vĂa API/PowerCLI.
Security Configuration Guides actualizados, ahora incluyen vSAN y scripts para auditorĂa/remediaciĂłn.
Storage
El almacenamiento es el corazón de cualquier plataforma virtualizada. En vSphere 8.0 U3, VMware introduce soporte extendido para vVols, NVMe y NFSv4.1, además de optimizaciones que reducen tiempos y mejoran el rendimiento. Vamos a desglosar estas novedades.
vVols Stretched Cluster (soporte inicial con SCSI y Uniform).
UNMAP en vVols con NVMe (manual y automático).
UI mejorada para registro y troubleshooting de Storage Providers.
WSFC sobre vVols con NVMeoF con shared disks (sin RDMs).
Clustered VMDK con NVMe-TCP (se suma a NVMe-FC de U2).
NVMeoF mejorado: soporte de reservas y copy optimization.
FPIN (Fabric Performance Impact Notification): alertas de congestiĂłn en FC.
Reducción drástica en tiempos para inflar discos Thin ➝ EZT en VMFS.
NFSv4.1 con nConnect: mayor throughput usando mĂşltiples conexiones.
CNS/CSI: soporte para hasta 250 file shares y migraciĂłn de PVs entre datastores no compartidos.
ConclusiĂłn
vSphere 8.0 U3 no es solo una actualización más: es, hasta ahora, la versión que más mejoras y cambios ha incorporado en la serie 8.x, abarcando desde seguridad, almacenamiento y eficiencia operativa, hasta soporte de hardware de nueva generación para IA, GPUs y DPUs.
Esta actualización marca un punto de quiebre porque nos prepara directamente para la adopción de VMware Cloud Foundation 9, asegurando que las organizaciones que actualicen a vSphere 8.0 U3 tengan la base más sólida, segura y moderna para dar el salto al ya liberado vSphere 9.0.
Con estas capacidades, VMware demuestra que vSphere sigue siendo el pilar confiable para workloads tradicionales y nativos de nube, al mismo tiempo que prepara el camino hacia el futuro de la infraestructura empresarial.
¡IMPORTANTE! He migrado blog del dominio nachoaprendevirtualizacion.com a nachoaprendeit.com. Si te ha servido este artĂculo deja tu buen Like y compártelo con tus colegas, estas aciones me ayudarán a optimizar los motores de bĂşsqueda para llegar a más personas, y a motivarme a seguir compartiendo este tipo de artĂculos.
TODOS LOS NOMBRES DE VMS USADOS EN ESTE BLOG SON INVENTADOS Y OBEDECEN A UN AMBIENTE DE LABORATORIO PROPIO, UTILIZADO PARA FINES DE ESTUDIO.
Como hemos aprendido hasta ahora. VMware continuĂł innovando con el lanzamiento de vSphere 8.0 Update 2, una actualizaciĂłn que mejora la eficiencia operativa, la resiliencia y la flexibilidad de la plataforma. Esta versiĂłn introduce nuevas funcionalidades para reducir el tiempo de inactividad en actualizaciones, mejorar la administraciĂłn de certificados, fortalecer la seguridad y optimizar la gestiĂłn de cargas de trabajo.
A continuaciĂłn, detallamos las principales mejoras de esta actualizaciĂłn liberada el 21 de septiembre de 2023.
Actualizaciones de vCenter con Menos Tiempo de Inactividad
Una de las principales novedades es el vCenter Reduced Downtime Update, que minimiza la interrupciĂłn del servicio al actualizar vCenter. Ahora, se despliega un nuevo appliance de vCenter mientras el actual sigue en funcionamiento. El tiempo de inactividad solo ocurre en la fase final, cuando los servicios del vCenter antiguo se detienen y se activan en el nuevo, reduciendo la interrupciĂłn a menos de 5 minutos.
Esto mejora la continuidad operativa, minimiza el impacto en los usuarios y facilita el proceso de rollback en caso de ser necesario. Esto sin duda nos permite tener actividades de Actualización y parchado más eficientes.
Mayor Resiliencia en el Patching de vCenter
Los parchados del vCenter ahora incluyen snapshots automáticos de la particion LVM (Logical Volume Manager) antes de aplicar parches, lo que facilita la recuperación en caso de fallas. Es importante aclarar que no es un snapshot a nivel de VM.
Además, el proceso permite pausas y reversiones si es necesario. En el evento de una falla en el parchado, podemos hacer rollback a las última versión de backup del LVM.
Nota: Esto no reemplaza los mecanismos de backup por imagen o por archivo que deberĂamos tener en nuestro ambiente para proteger la Virtual Machine de vCenter Server.
2. Seguridad y AdministraciĂłn de Certificados Mejorada
Cambios de Certificados Sin Interrupciones
vSphere 8.0 U2 introduce la capacidad de renovar o reemplazar certificados del vCenter sin reiniciar los servicios. Esto reduce la necesidad de programar ventanas de mantenimiento y minimiza riesgos operativos.
Refuerzo en Seguridad Contra Ransomware
Se han mejorado las configuraciones predeterminadas para proteger el entorno desde el primer momento. Además, se han actualizado las guĂas de seguridad y se han agregado scripts de PowerCLI para auditorĂas y correcciones automatizadas.
3. Gestión de Clústeres y Almacenamiento Más Flexible
Mejoras en la GestiĂłn de vSAN
Ahora, vSphere Lifecycle Manager (vLCM) puede administrar la imagen de los nodos witness de vSAN de manera independiente, lo que proporciona más control y flexibilidad en la administración del almacenamiento.
Soporte Mejorado para Sistemas Operativos Invitados
En esta versiĂłn tenemos la posibilidad de personalizar OUs en Active Directory al unir un sistema Windows.
Por otro lado, los mensajes de error en el panel de Task son más descriptivos cuando los archivos están bloqueados, incluyendo detalles del host que mantiene el bloqueo. Y es que a quien no le ha pasado que encuentran las VMs apagadas y no las pueden encender? Bueno pues ahora el mensaje de error nos permite identificar cuál host tiene bloqueado los archivos.
4. OptimizaciĂłn para Workloads con GPU y AI
ExpansiĂłn del Ecosistema de DPU y GPU
VMware continĂşa trabajando en incrementar su ecosistema de Partner para proporcionar a sus clientes compatibilidad con mĂşltiples fabricantes de dispositivos DPUs y GPUs. Recordemos que en versiones anteriores solo estaba soportado NVIDIA y AMD Pensando.
Desde esta versión de vSphere (vSphere 8.0 U2), ahora podemos soportar hasta 16 vGPUs en una sola máquina virtual, asà como hasta 32 dispositivos de transferencia directa. Esto permite que vSphere admita los modelos y cargas de trabajo de IA/ML más grandes y complejos que necesitan toda esa aceleración de hardware.
Por Ăşltimo, se ha mejorado la colocaciĂłn y balanceo de cargas de trabajo de GPU para optimizar el uso de recursos.
Novedades en Virtual Hardware
Pasemos ahora a las mejoras en el Virtual Hardware. Y aprovecho para resaltar la importancia de realizar el proceso de actualizaciĂłn de VMtools y Virtual Hardware una vez completado el proceso de actualizaciĂłn de vCenter y ESXi. Debido a que esto suele ser una actividad que es pasada por alto por los administradores, impidiendo que la actualizacion de la infraestructura sea completa y se accedan a las mejoras a nivel de las VMs.
Soporte para hasta 32 dispositivos de passthrough por VM.
Compatibilidad mejorada con NVMe 1.3 y 256 discos vNVMe por VM.
Sensibilidad a alta latencia con Hyperthreading activado.
5. InnovaciĂłn para DevOps y Kubernetes
Mejoras en VMware vSphere with Tanzu
Exportación e importación de configuraciones de Supervisor Clusters para una rápida replicación de entornos.
Servicio de VM mejorado, permitiendo la provisión de VMs Windows y Linux junto con contenedores. Los usuarios de DevOps pueden usar kubectl para implementar y personalizar máquinas virtuales de Windows en sus namespaces. Los datos de personalización de invitados de Windows, que utilizan el formato estándar SysPrep, se encapsulan como un secret y se incluyen en la especificación de implementación de la máquina virtual.
Self-Service VM Images, donde los desarrolladores pueden gestionar imágenes de VM mediante kubectl. Teniendo la posibilidad no solo de leer el contenido de la Content Library sino además publicar contenido dentro de la misma.
ConclusiĂłn
vSphere 8.0 U2 es una actualización clave que mejora la eficiencia, seguridad y flexibilidad de la plataforma. Con un enfoque en minimizar el tiempo de inactividad, reforzar la seguridad y mejorar la experiencia de administración, esta versión sigue posicionándose como la mejor opción para entornos empresariales modernos.
Si deseas conocer más detalles, consulta la documentación oficial de VMware o experimenta estas mejoras en tu infraestructura.
Recursos
¡IMPORTANTE! He migrado blog del dominio nachoaprendevirtualizacion.com a nachoaprendeit.com. Si te ha servido este artĂculo deja tu buen Like y compártelo con tus colegas, estas aciones me ayudarán a optimizar los motores de bĂşsqueda para llegar a más personas, y a motivarme a seguir compartiendo este tipo de artĂculos.
TODOS LOS NOMBRES DE VMS USADOS EN ESTE BLOG SON INVENTADOS Y OBEDECEN A UN AMBIENTE DE LABORATORIO PROPIO, UTILIZADO PARA FINES DE ESTUDIO.
Muy bien como lo explicamos en el post anterior Novedades Clave de vSphere 8.0 GA: Mejoras y Funcionalidades En esta oportunidad hablaremos solo de las caracterĂsticas que fueron incluidas en vSphere 8.0 U1 y. Recordemos que el objetivo final de esta serie de post de novedades de vSphere es tener una visiĂłn general de la evoluciĂłn del producto hasta la fecha. Y estar preparados para la actualizaciĂłn de vSphere 9.0 que ya fue liberada.
Continuando con nuestro camino de adopciĂłn de la soluciĂłn vSphere, componente principal de VMware Cloud Foundation, en este artĂculo recordaremos las nuevas funciones y mejoras que vSphere 8 Update 1 trajo consigo el 18 de Abril de 2023, mejorando la eficiencia operativa, elevando la seguridad y potenciando las cargas de trabajo.
Podemos categorizar las mejoras de vSphere en tres temas principales:
Administración Eficientemente: Hacer que sea más fácil para los clientes operar sus infraestructuras de TI de la manera más eficiente posible.
Seguridad: Cada funciĂłn se convierte en una caracterĂstica de seguridad, lo que permite a los equipos de TI centrarse en ser seguros en lugar de solo asegurar.
Potenciar Cargas de Trabajo: Introducir soporte para nuevas tecnologĂas de hardware, como GPUs y DPUs.
AdministraciĂłn Eficientemente
vSphere Configuration Profile
Comenzamos con los vSphere Configuration Profile, que facilitan la gestiĂłn de la configuraciĂłn del clĂşster. Esta nueva funciĂłn permite a los administradores establecer configuraciones deseadas a nivel de clĂşster en formato JSON, verificar la conformidad de los hosts y remediar cualquier incumplimiento.
Si bien esta funcionalidad fue introducida en vSphere 8.0 GA como Tech Preview, en vSphere 8 Update 1 comenzĂł a ser completamente soportada. Permitiendo la configuraciĂłn de vSphere Distributed Switch que no estaba disponible en la version anterior.
vSphere Lifecycle Manager (vLCM)
Además, se mejoró el vSphere Lifecycle Manager (vLCM) para admitir hosts standalone. Esto incluyó la capacidad de definir imágenes personalizadas y gestionar hosts en ubicaciones remotas con conectividad limitada. Desde esta versión todo lo que se espera de vLCM esta disponible para hosts Standalone.
Flexibilidad en Cargas de Trabajo de GPU
Con vSphere 8 Update 1, ahora se pueden asignar diferentes perfiles de GPU a diferentes cargas de trabajo en la misma máquina. Esto permite a los administradores maximizar la utilización de recursos de GPU.
Mejoras en vSphere con Tanzu
Se han realizado mejoras significativas en la integraciĂłn de Tanzu Supervisor Services, permitiendo su uso con vSphere Distributed Switch, lo que facilita su implementaciĂłn y gestiĂłn.
Como parte de las mejoras incorporadas al entonces vSphere with Tanzu, se añadieron nuevas funcionalidad al vSphere Virtual Machine Service (VM Service), incluido en la versión vSphere 7 Update 2a , y que básicamente permite implementar y gestionar Virtual Machines mediante las API estándar de Kubernetes, al mismo tiempo que permite al administrador de TI controlar el consumo de recursos y la disponibilidad del servicio. Si quiere saber un poco más de VM Service lo invito a leer este corto articulo Introducing the vSphere Virtual Machine Service escrito por Glen Simon.
Como parte de esas mejoras al VM service el equipo de DevOps ahora puede traer tu propia imagen, lo que permite a los usuarios crear imágenes que se pueden almacenar en una biblioteca de contenido.
Adicionalmente, los desarrolladores pueden ahora lanzar la consola de las VMs utilizando el comando kubectl sin necesidad de tener acceso al vCenter Server.
Por si esto fuera poco, vSphere 8 Update 1 introdujo un workflow en el vSphere Client para desplegar y registrar el Skyline Health Diagnostics y de esta manera registrarlo facilmente con vCenter.
Mejoras en Seguridad
La seguridad es una prioridad constante. En vSphere 8 Update 1, se ha abordado la compatibilidad entre ESXi Quick Boot (introducido en vSphere 6.7) y TPM 2.0, permitiendo un reinicio rápido sin comprometer la seguridad.
Se introdujo soporte para el proveedor de identidad Okta, lo que permite una gestión más moderna de identidades y autenticación multifactor. Esto se alinea con las mejores prácticas de seguridad actuales. Lo mejor es que no se require el uso de ADFS, nos permite introducir 2FA/MFA y además nos permite tener un Single Sing-On consistente dentro de la organización.
Potenciar Cargas de Trabajo
Hemos realizado importantes mejoras en VM DirectPath I/O, permitiendo la adiciĂłn y eliminaciĂłn en caliente de dispositivos NVMe, usando APIs, lo que reduce el tiempo de inactividad de la carga de trabajo.
Además, se extendiĂł el soporte para la tecnologĂa NVIDIA NVSwitch, que permite una comunicaciĂłn de alta velocidad entre mĂşltiples GPUs, llegando hasta 900 GB/s, lo que es crucial para aplicaciones de inteligencia artificial y computaciĂłn de alto rendimiento. En esta versiĂłn (vSphere 8.0 U1) podĂamos conectar hasta 8 GPUs en un Switch NVIDIA usando el protocolo NVLink
¡Gracias por tu atenciĂłn y espero que encuentres Ăştiles estas nuevas caracterĂsticas que fueron lanzadas hace un tiempo pero que probablemente no sabĂas, no recordabas o nunca habĂas escuchado hablar de ellas! No vemos en el vSphere 8 Update 2 y Update 3 para completar este path de adopciĂłn de la tecnologĂa vSphere.
Recursos
¡IMPORTANTE! He migrado blog del dominio nachoaprendevirtualizacion.com a nachoaprendeit.com. Si te ha servido este artĂculo deja tu buen Like y compártelo con tus colegas, estas aciones me ayudarán a optimizar los motores de bĂşsqueda para llegar a más personas, y a motivarme a seguir compartiendo este tipo de artĂculos.
TODOS LOS NOMBRES DE VMS USADOS EN ESTE BLOG SON INVENTADOS Y OBEDECEN A UN AMBIENTE DE LABORATORIO PROPIO, UTILIZADO PARA FINES DE ESTUDIO.
Si bien esta información salió hace algunos años, en el campo me he dado cuenta que muchos de nuestros cliente siguen usando vSphere en sus versiones 8.x sin saber que funcionalidades se han incluido.
Ahora, teniendo en cuenta que vSphere es el Core, comenzaremos por aquĂ. En este blog, exploraremos de forma muy resumida las caracterĂsticas más destacadas y las mejoras que vSphere 8.0 GA trajo a la mesa hace un par de años (2022/10/11).
Para no hacer este blog tan largo, explicaremos solo lo correspondiente a vSphere 8.0 GA y en las siguiente entradas, hablaremos de las caracterĂsticas que se han venido incorporando con el lanzamiento de cada uno de los updates. Esto con el objetivo de tener al final una visiĂłn general de la evoluciĂłn del producto hasta la fecha. ¡AsĂ que vamos a sumergirnos en el contenido!
vSphere Distributed Service Engine
Comencemos hablando sobre el vSphere Distributed Services Engine, que nació como Proyecto Monterey. Este motor ha evolucionado y se lanzó con vSphere 8.0 GA, permitiendo mover funcionalidades desde el host hacia una Data Processing Unit (DPU) o unidad de procesamiento de Datos. Su principal objetivo es desbloquear el poder de las Data Processing Unit (DPU) para el procesamiento de datos acelerado por hardware, lo que ofrece una mejora en el rendimiento de la infraestructura. Ahora, usar estas DPU en tus cargas de trabajo es más sencillo que nunca.
Nota: Hasta esta versiĂłn vSphere 8.0 GA, solo estaban soportados de tipos de DPU, NVIDIA y Pensando. Pero como veremos en los siguientes post asociados a los Updates de vSphere 8.0, nuevos modelos y partners se han unido a la fiesta!
Esto libera parte del poder de cómputo x86 y lo devuelve a nuestras aplicaciones y cargas de trabajo. Para aprovechar el vSphere Distributed Services Engine, necesitas utilizar un Switch Distribuido de vSphere versión 8 y NSX. Esto te permitirá seleccionar la compatibilidad de descarga de red y elegir la DPU adecuada en tu entorno.
Mejoras en vSphere con Tanzu
Pasemos ahora a las mejoras en vSphere con Tanzu. Introducido en vSphere 7, vSphere con Tanzu trajo consigo Tanzu Kubernetes Grid (TKG) y varias versiones. Con vSphere 8, se consolidaron estas diferentes versiones en un Ăşnico runtime de Kubernetes unificado, que se utiliza para desplegar Kubernetes en clĂşsteres de vSphere, nubes pĂşblicas y privadas.
Tambien se introdujo el soporte de staging en vSphere Lifecycle manager Images y la remediaciĂłn paralela, lo que mejora el tiempo total de remediaciĂłn al realizar operaciones de ciclo de vida en tus clĂşsteres de vSphere.
Nota: Es importante mencionar que la gestión de actualizaciones de baselines está obsoleta en vSphere 8.0, lo que significa que debes comenzar a migrar a un enfoque declarativo basado en Images (vSphere Lifecycle Manager Images).
En cuanto a la inteligencia artificial y el aprendizaje automático, estas áreas están creciendo rápidamente y requieren hardware acelerado, tĂpicamente en forma de GPUs. vSphere ofrece ahora la posibilidad de soportar Device Groups, que es una configuraciĂłn realizada en la capa del hardware, que permite definir dispositivos PCI comunes GPUs y NICs que hacen parte de un mismo PCIe Switch. Esto simplifica la asignaciĂłn de dispositivos a máquinas virtuales, ya que los dispositivos se presentan como una unidad Ăşnica a nivel de la capa de virtualizaciĂłn.
Nota: Uno de nuestros primeros partners en apoyar los Device Groups es NVIDIA, que lanzó un controlador compatible para esta funcionalidad. Esto permite a DRS y vSphere HA trabajar con Device Groups para la colocación de máquinas virtuales y la recuperación ante fallos.
En versiones anteriores, las máquinas virtuales que consumĂan dispositivos de hardware fĂsico mediante DirectPath IO o Dynamic DirectPath IO tenĂan una movilidad limitada. En vSphere 8.0 GA, se ha resuelto este problema con Enhanced DirectPath I/O (Device Virtualization Extension) el cual se basa en Dynamic DirectPath IO e introduce un nuevo marco y API para que los proveedores creen dispositivos virtuales respaldados por hardware para permitir una mayor compatibilidad con funciones de virtualizaciĂłn, como la migraciĂłn mediante vSphere vMotion, la suspensiĂłn y reanudaciĂłn de una máquina virtual y la compatibilidad con instantáneas de disco y memoria. Ahora la mobilidad esta parmitida gracias a un drive instalado tanto en el Guest OS como en el hipervisor.
Mejoras en el Sistema Operativo Invitado y Cargas de Trabajo
En esta secciĂłn, exploraremos algunas mejoras en el sistema operativo invitado y las cargas de trabajo. Cada nueva versiĂłn de vSphere introduce una nueva versiĂłn de hardware virtual, y en esta ocasiĂłn, hemos llegado a la versiĂłn 20. Esto permite aumentos en los máximos de cĂłmputo y desbloquea muchas caracterĂsticas nuevas.
Una de las nuevas polĂticas es la provisiĂłn de TPM virtual, diseñada para ayudar a implementar cargas de trabajo de Windows 11 a gran escala. En vSphere 8.0 GA, los dispositivos vTPM se pueden reemplazar automáticamente durante las operaciones de clonaciĂłn o implementaciĂłn. Esto permite seguir las prácticas recomendadas de que cada máquina virtual contenga un dispositivo TPM Ăşnico.
Además, estamos simplificando la configuración de vNUMA y aumentando los máximos de cómputo, permitiendo hasta ocho dispositivos vGPU por máquina virtual.
Nota: Las aplicaciones se debe ser reescritas para que admitan las notificaciones de vMotion. O se puede escribir una aplicaciĂłn asociada como intermediaria entre las notificaciones de vMotion y la aplicaciĂłn principal.
En vSphere 8, el rendimiento de DRS se mejora significativamente aprovechando las estadĂsticas de memoria, lo que da como resultado decisiones de ubicaciĂłn Ăłptimas para las máquinas virtuales sin afectar el rendimiento ni el consumo de recursos.
Nota: Usage es una metrica de potencia real medida en función del uso activo de la CPU y la memoria de las máquinas virtuales. Se deriva de los medidores de potencia conectados a los hosts (IPMI, interfaz de administración de plataforma inteligente).
Además, se introduce un tiempo de espera automático para SSH, que se deshabilitará automáticamente si no se utiliza, ayudando a mitigar posibles vectores de ataque.
Recuerda que estamos haciendo un repaso de las funcionalidades que han sido liberadas en cada uno de los updates de vSphere. Posteriormente haremos lo mismo con vSAN, NSX, VCF, y los productos que componen la Aria Suite.
¡Gracias por tu atenciĂłn y espero que encuentres Ăştiles estas nuevas caracterĂsticas que fueron lanzadas hace un tiempo pero que probablemente no sabĂas, no recordabas o nunca habĂas escuchado hablar de ellas!
Recursos
¡IMPORTANTE! He migrado blog del dominio nachoaprendevirtualizacion.com a nachoaprendeit.com. Si te ha servido este artĂculo deja tu buen Like y compártelo con tus colegas, estas aciones me ayudarán a optimizar los motores de bĂşsqueda para llegar a más personas, y a motivarme a seguir compartiendo este tipo de artĂculos.
TODOS LOS NOMBRES DE VMS USADOS EN ESTE BLOG SON INVENTADOS Y OBEDECEN A UN AMBIENTE DE LABORATORIO PROPIO, UTILIZADO PARA FINES DE ESTUDIO.
Es aquĂ donde nos podrĂamos encontrar con un error comĂşn que puede convertirse en un dolor de cabeza sino conocemos su causa raĂz. El error básicamente se produce al intentar ejecutar la acciĂłn Erase Partitions en la configuraciĂłn del host en el apartado Configure->Storage->Storage Devices, como se muestra en la siguiente imagen.
Al hacer clic sobre la opción anterior nos mostrará un resumen de las particiones con las que cuenta este disco y razón por la cual no esta disponible para el asistente de configuración de VSAN.
Al hacer click sobre el botĂłn OK, en la mayorĂa de los casos, las particiones serán eliminadas y el disco quedará disponible para vSAN. Una forma rápida de verificarlo es que al hacer nuevamente clic sobre Erase Partition, no deberĂa listar ninguna particiĂłn y el asistente de configuraciĂłn de vSAN deberĂa ahora listar el o los discos.
¿Y SI FALLA?…
Es ahora cuando aparece el problema ÂżQue hacemos si esta tarea falla y nos muestra el siguiente error: “Cannot change the host configuration”? Primero que todo ¡calma, calma!, no tenemos que ir a ninguna lĂnea de comandos a intentar limpiar estas particiones, la soluciĂłn es mucho más sencilla que eso.
Nota 1: Para las versiones de ESXi anteriores a 7,0, scratch partition es un espacio temporal que se configura automáticamente durante la instalación o el primer arranque de un host ESXi. El instalador de ESXi crea una partición FAT16 de 4GB en el dispositivo de destino durante la instalación si hay suficiente espacio y si el dispositivo se considera local. Esta partición no es creada cuando el hipervisor se instala en tarjetas SD o unidades flash USB.
Nota 2: Si no existe espacio temporal persistente disponible en el disco local o la partición no es creada (en el caso de SD, Flash USB), ESXi almacenará estos datos temporales en la memoria RAM. Esto puede ser problemático en situaciones con poca memoria, pero no es fundamental para el funcionamiento de ESXi.
Explicado lo anterior, el problema pudo haberse producido si ese disco o discos, en algĂşn momento fueron formateados como Datastore (VMFS), y esto hace que el hipervisor configure ese datastore como su mejor candidato para ubicar el Scratch Partition (ParticiĂłn creada para almacenar la salida de vm-support necesaria para el soporte de VMware).
Por esta razón, la solución a este problema se basa en cambiar la configuración asociada a la opción avanzada del hipervisor ScratchConfig.ConfiguredScratchLocation, que probablemente estará apuntando al datastore local que en algún momento se configuró en dicho disco.
SOLUCIÓN
1. Si ya tiene vCenter instalado navegue en el inventario hasta el Host –> Configure –> Advanced System Settings. Clic en Edit… y en el filtro escriba ScratchConfig.ConfiguredScratchLocation.
2. Sino tiene instalado un vCenter aĂşn, inicie sesiĂłn en el Host Client del host en cuestiĂłn (en cualquier navegador web https://IP_FQDN_Host ) y navegue hasta Manage->System-> Advanced Settings y en el buscador escriba ScratchConfig.ConfiguredScratchLocation o simplemente Scratch.
3. Independientemente de si se realizó el paso anterior desde el vCenter o desde el Host Client, podrá ver que en el campo value aparecerá la ruta hacia un datastore, lo único que debemos hacer es editar este valor y colocar /tmp, para redireccionarlo a la memoria RAM (no recomendado) o especificar la ruta de un almacenamiento persistente diferente.
Nota 3: Al editar el valor de ScratchConfig.ConfiguredScratchLocation será /tmp, mientras el valor de ScratchConfig.CurrentScratchLocation permanecerá sin cambios. Esto se debe a que es necesario realizar un reinicio del host para que los mismo sean aplicados.
4. Una vez realizado el reinicio, inicie sesiĂłn nuevamente en el Host Client y navegue hasta Manage->System-> Advanced Settings. En el buscador escriba ScratchConfig.ConfiguredScratchLocation o simplemente Scratch.
En la columna value podrá observar que el valor tanto para ScratchConfig.ConfiguredScratchLocation como para ScratchConfig.CurrentScratchLocation es /tmp.
5. Por ultimo, intente nuevamente la acciĂłn Erase Partition.
En esta ocasión se presenta un procedimiento fácil y rápido para silenciar las alarmas generadas por el health check de vSAN, que puede ser utilizado en ambientes Nested (ESXi virtualizados) o en ambientes de laboratorio propiamente dichos. Esta puede ser una opción para omitir algunas de la verificaciones debido a que no siempre contamos con las condiciones de hardware, firmware y drivers apropiados para implementar la solución; ni mucho menos contamos con vSAN ReadyNodes disponibles para una POC (Proof of Concept).
¡CUIDADO! En ningĂşn momento se recomienda este procedimiento en ambientes vSAN productivos ya que todos los componentes de hardware, drivers y firmware deben coincidir con la GuĂa de Compatibilidad de VSAN indicada para los nodos que conforman la soluciĂłn.
Antes de iniciar el procedimiento comentemos un poco acerca de RVC (Ruby vSphere Console). Es una consola de lĂnea de comando para VMware vSphere y Virtual Center. Ruby vSphere Console es basada en la popular interface RbVmomi Ruby para vSphere API. RbVmomi fue creada para reducir drásticamente la cantidad de codificaciĂłn requerida para realizar tareas rutinarias, asĂ como aumentar la eficacia de la ejecuciĂłn de tareas, al tiempo que permite la máxima potencia de la API cuando es necesario. RVC se encuentra incluida en el vCenter Server Appliance (VCSA) y la versiĂłn de Windows de vCenter Server, y se ha convirtiendo en una de las principales herramientas para administrar y solucionar problemas de entornos Virtual SAN (vSAN).
RVC tiene muchas de las capacidades que se esperan de una interfaz de lĂnea de comandos.
FinalizaciĂłn de tabulaciĂłn
Comodines
Marcas
Modo Ruby
Modo Python
IntrospecciĂłn VMODL
Conexiones mĂşltiples
Extensibilidad
Guiones de Ruby de una sola lĂnea
Casos de uso y ventajas de RVC
Funcionalidad Virtual SAN cubierta
ConfiguraciĂłn de VSAN y polĂticas de almacenamiento
Comandos de monitorizaciĂłn / resoluciĂłn de problemas
3. Ingrese el password del usuario administrator@vsphere.local
Se utilizarán los siguientes comandos RVC para verificar y silenciar las alarmas
vsan.health.silent_health_check_status
vsan.health.silent_health_check_configure
4. Verifique el estado de las alertas con el primer comando, para el cual se debe conocer la ruta de cluster a analizar. Puede apoyarse de los comando cd y ls para navegar hasta encontrar la ruta correcta del cluster vSAN.
5. Desde el vSphere Web Client navegue hasta el NombredelCluster|vSAN|Health para identificar el nombre de la alerta que se desea silenciar, teniendo en cuenta por supuesto que la misma no sea de impacto para la operación normal de la solución, de lo contrario deberá realizarse una adecuada investigación y solución del problema.
Para este caso al ser un ambiente de laboratorio virtualizado, se tiene la alerta SCSI controller is VMware certified que nos indica acerca de la incompatibilidad de la controladora de discos para el uso de vSAN, que no podemos solucionar debido a que la controladora es virtual; por lo tanto puede ser ignorada o silenciada. (¡Recuerde! Esto acción no debe ser realizada en ambientes productivos).
6. En la salida del comando anterior se muestra el mismo listado de Health Checks disponibles para configurar y su estado actual. De manera que para silenciar la verificaciĂłn SCSI controller is VMware certified, se debe utilizar su correspondiente identificador o Check ID controlleronhcl
7. Ahora solo queda ejecutar el comando de configuraciĂłn vsan.health.silent_health_check_configure de la siguiente manera para silenciar la alarma
Utilice los parámetros de configuración disponibles, de acuerdo a su necesidad.
-a
–add-checks=
Agregar verificaciĂłn a la lista silenciosa, uso: -a [Health Check Id].
-r
–remove-cheques=
Eliminar verificaciĂłn de la lista silenciosa, uso: -r [Health Check Id]. Para restaurar la lista de verificaciĂłn silenciosa, utilizando ‘-r all’
-i
–interactive-add
Usa el modo interactivo para agregar verificaciĂłn a la lista silenciosa
-n
–interactive-remove
Usa el modo interactivo para eliminar las verificaciones de la lista silenciosa
-h
–help
Muestra este mensaje
8. Regrese al vSphere Web Client y haga click en Retest en el Health monitor de vSAN para validar el cambio y podrá observar que la alerta aparece ahora como Skipped y no como Warning.
Muchas veces nos encontramos con el dilema de no poder rastrear la ubicaciĂłn de un disco de la vSAN hasta la ubicaciĂłn real (slot) en el servidor. Esto por lo general ocurre cuando necesitamos reemplazar un disco perteneciente a un Disk Group que se encuentra alarmado o un Storage Device que se muestra como degradado en la configuraciĂłn de vSphere, pero a nivel fĂsico no se visualiza ninguna alerta. ÂżComo hacemos entonces para saber cuál disco es el que debemos cambiar? Pues bien he aquĂ un procedimiento sencillo que nos puede ayudar a salir de la incertidumbre.
2. Inicie sesión SSH en el host ESXi que se encuentra el disco local que hace parte de la vSAN, con el usuario root y la contraseña configurada, para ejecutar el siguiente comando que mostrará la ruta reclamada por el plugin de multipathing nativo para VMware (NMP: VMware Native Multipath Plugin) perteneciente al Pluggable Storage Architecture.
[root@esxi:~]esxcli storage nmp path list
En la imagen mostrada arriba aparecen varios identificadores sas.*, que de izquierda a derecha el primero corresponde a la direcciĂłn SAS de la controladora de discos, la segunda a la direcciĂłn SAS del disco y el ultimo el nombre canĂłnico (naa.*) definido por vSphere para cada Storage Device.
De esta manera, si se quiere buscar cuál es la posiciĂłn fĂsica correspondiente a un determinado disco local se debe buscar de manera inversa, esto es; identificar primero el nombre canĂłnico naa.* del disco en vSphere (Paso 1) y posteriormente buscar dicho naa.* en la salida del comando anterior (Paso 2). Una vez encontrado, se debe tomar nota de su correspondiente SAS Address (segunda direcciĂłn de izquierda a derecha).
Ejemplo:
Para buscar la ubicaciĂłn fĂsica del Storage Device seleccionado en la siguiente figura
Al ejecutar el comando esxcli storage nmp path list y buscar el nombre canĂłnico en la salida de comando (naa.5002538c40896228) se obtiene lo siguiente
3. Ahora se debe buscar en cada uno de los discos locales del servidor, la direcciĂłn sas.* encerrada en color rojo o el target del dispositivo TXX encerrado en color azul, desde la interface de administraciĂłn del mismo (iLO, CIMC, iDRAC, etc.). A continuaciĂłn, una muestra de la coincidencia para el caso de un servidor CISCO.
Nota: Puede haber casos en que debido al firmware sugerido por la matriz de compatibilidad de vSAN para la controladora de discos, la direcciĂłn sas.* en salida del comando del Paso 2 aparezca como desconocido (unknown) para la direcciĂłn sas de la controladora y de los discos, por lo que nos queda solo rastrear el disco en el mundo fĂsico por su target encerrado en color azul.