30 Apr
30Apr


Esta versión se centra en mejorar la experiencia del SDDC (Software Defined Data Center)

Estos son los Builds del producto core de VMware:

  • ESXi 6.7 | ISO Build 8169922
  • vCenter Server 6.7 | ISO Build 8217866
  • vCenter Server Appliance 6.7 | Build 8217866

También hubo actualización en productos como VSAN y vRealize Operations, pero hoy quiero enfocarme en vSphere y comentarles algunas cosas nuevas de esta versión. Les cuento...

Las máquinas virtuales creadas en ESX 3.x y posterior, desde hardware virtual 4, están soportadas en ESXi 6.7, que tiene vHW versión 14. Por lo que si se tiene VMs con vHW anterior deben actualizarse antes de subir la plataforma a 6.7.

La versión de VMware tools es 10.2

Este es el último release que soporta vCenter Server sobre Windows! Así que vayan planificando las migraciones.

Esta es la última versión que requiere que el usuario especifique sitios SSO. En el futuro ya no será un item configurable.

vSphere 6.7 deja de soportar las siguientes versiones de procesadores:

  • AMD Opteron 13xx Series
  • AMD Opteron 23xx Series
  • AMD Opteron 24xx Series
  • AMD Opteron 41xx Series
  • AMD Opteron 61xx Series
  • AMD Opteron 83xx Series
  • AMD Opteron 84xx Series
  • Intel Core i7-620LE Processor
  • Intel i3/i5 Clarkdale Series
  • Intel Xeon 31xx Series
  • Intel Xeon 33xx Series
  • Intel Xeon 34xx Clarkdale Series
  • Intel Xeon 34xx Lynnfield Series
  • Intel Xeon 35xx Series
  • Intel Xeon 36xx Series
  • Intel Xeon 52xx Series
  • Intel Xeon 54xx Series
  • Intel Xeon 55xx Series
  • Intel Xeon 56xx Series
  • Intel Xeon 65xx Series
  • Intel Xeon 74xx Series
  • Intel Xeon 75xx Series

Estas son soportadas, pero ya no lo serán en las siguientes versiones de vSphere:

  • Intel Xeon E3-1200 (SNB-DT)
  • Intel Xeon E7-2800/4800/8800 (WSM-EX)

vCenter Server 6.7 ya no soporta conexión TLS (Transport Layer Security) 1.2 para bases de datos Oracle

Se agrega mayor cantidad de funcionalidades a la interfaz HTML5 de vSphere Client. Mira las funcionalidades aquí.

VMware busca que el usuario tenga una experiencia de administración más simple, escalable y eficiente. Por eso, ahora el vCenter Server Appliance con el Platform Services Controller (PSC) embebido se puede habilitar en modo Enhanced Linked Mode, para habilitar varios vCenters sin necesidad de balanceadores de carga ni PSC externos. Esto a mi parecer simplifica bastante la arquitectura y el costo de implementación. 

Además, se pueden desplegar varios vCenters desde templates. Maravilloso.

vSphere 6.7 presenta también el vCenter Server Hybrid Linked Mode, que hace más simple al usuario la unificación de la administración y visibilidad de todas sus plataaformas que estén tanto en On-Premise como en vSphere basado en nubes públicas (vSphere on AWS).

Se introduce la Migración fría y caliente Cross-Cloud, para facilitar la experiencia de cloud híbrida al usuario.

Normalmente, al hacer upgrade de los ESXi hosts, se requiere dos reboots. En esta versión se elimina uno de ellos (Single Reboot) y además agrega el vSphere Quick Boot que reinicia el hypervisor sin rebootear el host físico... Whaaaaat!? Magia... bueno, no tanto, pero está buenísimo!

vSphere 6.7 apuesta a la Seguridad del hardware tanto físico como virtual. Agrega soporte para dispositivos Trusted Platform Module (TPM) 2.0 y Virtual TPM 2.0. Con esto mejora significativamente la protección y asegura la integridad del hypervisor y el sistema operativo guest. Esto evita que se carguen dispositivos y componentes no autorizados.

El paso a paso para la Encriptación de VM se simplifica. Esta funcionalidad protege los datos cuando las VMs están quietas y en movimiento, siendo tan fácil como dar un click derecho para aumentar la seguridad de la encriptación de VM y evitar accesos no permitidos a los datos.

Con vMotion Encriptado entre diferentes instancias de vCenter, así como de diferentes versiones, se facilita la seguridad durante la migración de datacenters, movimientos de datos entre cloud híbridas, o incluso entre datacenters distribuidos geográficamente.

Mejoras en la tecnología Nvidia GRID™ vGPU. Otra mejora que me parece genial es EVC (Enhanced vMotion Compatibility) por VM. De esta forma se puede aprovechar mejor las ventajas de ciertos procesadores en algunas VMs que lo necesiten.

Soporta pMEM (Persistent Memory) o NVDIMMs y pueden usarse tanto para el host como para las VMs. pMEM es un tipo de DRAM no volátil (NVDIMM) que tiene la velocidad de DRAM, pero retiene contenidos a través de los ciclos de poder. O sea, es significativamente más veloz ya que el contenido de la RAM no necesita ser recargada. Además de ser no volátil, se puede utilizar como storage. 

Es casi 100 veces más veloz que los SSD. Al mover los datos más cerca de donde se realiza el análisis, la CPU puede acceder los datos como si estuvieran en la RAM con latencias parecidas a DRAM.

Un datastore pMEM es creado automáticamente en el Host. Es administrado por el vCenter y DRS, no es necesario realizar ningún proceso para administrarlo.

Para utilizar virtual NVDIMM se requiere vHW 14 o superior. El S.O. debe soportar el uso de PMEM. Las VMs que utilicen esta función tendrá todas las funcionalidades, menos HA y snapshots. Estas VMs al estar utilizando PMEM no pueden ser movidas a un datastore regular, sino solo a otro host que también contenga discos PMEM.

SW-FCoE elimina la necesidad de tener un adaptador FCoE costoso. SW-FCoE funciona con cualquier NIC L2 con capacidad DCB (Data Center Bridging). El driver del SW-FCoE puede funcionar a varias velocidades incluyendo 10Gb, 20Gb, 40Gb y 100Gb. El nuevo driver funciona en un framework de driver nativo. Además soporta conexiones fabric y Vn2Vn (Virtual node to Virtual node)

SW-FCoE se comunica utilizando un vSwitch Uplink y requiere un vSwitch para ser creado y pareado con el uplink. Velocidad mínima soportada del NIC es 10 Gb.

RDMA or Remote Direct Memory Access permite transferir memoria desde una computadora a otra. Esta es una transferencia directa y minimiza el involucramiento de la CPU y el Kernel, de esta forma se obtiene un alto ancho de banda de I/O y baja latencia. Para usar RDMA se debe tener un dispositivo HCA (Host Channel Adapter) en el origen y el destino.

Otro uso del RDMA es el iSER (iSCSI Extensions for RDMA). Baja la utilización de la CPU a través del reemplazo del TCP Transport protocol con RDMA transport. El dato se envía al destino sin la sobrecarga de la copia desde el TCP packet buffer.

En vSphere 6.7 ya no se soporta VMFS-3. Ya era hora, no? En caso de que no hayas actualizado tus volúmenes VMFS-3 a VMFS-5 o superor, cuando instales vSphere 6.7 tus volúmenes 6.7 se actualizarán automáticamente a VMFS-5 cuando sean montados. De todas formas ojo con esto, ya que hay un known issue en el release note.

Se han agregado dos funcionalidades para mejorar el uso de VVOLs

  • Soporte IPv6 para acceso administrativo al VASA provider
  • Soporte SCSI-3 Persistent Group Reservations (PGRs) para arrays soportados.

 En vSphere 6.7 aumenta el número máximo de LUNs y paths por host. Ahora se pueden tener hasta 1024 LUNs y 4096 Paths por host.

A nivel de VM, el número de vDisks ha subido de 16 a 64 discos. 256 discos usando adaptadores PVSCSI. Este incremento es una mejora para el Microsoft WSFC (Windows Server Failover Cluster). Previamente, WSFC VM con RDM físico estaba limitado a 45 LUNs. Con esta versión, el número subió a 192. Esto permite al usuario tener clúster más grandes y reducir la sobrecarga de administrar múltiples clústeres pequeños. Por qué solo 192 y no todos los 256? Porque uno de los cuatro controladores es utilizado para administración, dejando 3 controladores con 64 vDisks/LUNs cada uno. Si las aplicaciones no requieren SCSI controller 0 para administración, se pueden usar los 256 dispositivos PVSCSI.

En esta versión aparece algo que, según mi experiencia como administradora, hacía mucha falta. Nuevos parámetros configurables para UNMAP automático. Esto ayuda a recuperar espacios no utilizados en volúmenes VMFS-6. Ahora tienen la opción de configurar  un método UNMAP que sea "Priority" o "Fixed".  Esto se puede configurar en el CLI o por el UI.

Y algo no menor: no se puede actualizar directamente desde 5.5 a 6.7, se debe actualizar primero a 6.0 para dar el salto.

Uff! mucha información, y aún hay muchos detalles más que estaré comentando en próximos posts. Espero toda esta información les sea de gran uso. 

Hasta la próxima entrada!


Comentarios
* No se publicará la dirección de correo electrónico en el sitio web.