curso vsphere

Curso de VMware 5.5 – Snapshots

Los snapshots son merecedores de un corto capítulo en el curso de VMware. Mal utilizados por muchos, infravalorados por otros, y grandes ayudantes para la gente que realiza modificaciones serias en sus máquinas virtuales y quiere disponer de una red para no tirarse al vacío realizándolos.

¿Qué es un Snapshot?

Un snapshot es una instantánea que se toma de una máquina virtual en un momento en el tiempo. Al crear un snapshot, creamos un punto de restauración en la máquina virtual, de manera que si, por poner un ejemplo extremo, la formateamos dos minutos después, podemos recuperar todo con un par de clicks.

Tenemos dos niveles de snapshots, que proporcionan una vuelta atrás más o menos completa:

Snapshot RAM + Disco Duro – Es el snapshot más completo que podemos hacer. Incluye la memoria RAM del equipo, por lo que si hacemos uso de él, volveríamos al estado exacto del equipo en el momento de realizarlo, incluidas las aplicaciones abiertas y su estado. Tarda en realizarse el tiempo que se necesite para hacer un volcado de la memoria RAM a disco duro.

Snapshot solo Disco Duro – Es un snapshot inmediato, en el que guardamos el estado de los bloques del disco duro. Volver a este snapshot supone reiniciar el equipo y perder el estado de las aplicaciones que estuviesen ejecutándose cuando se tomó el snapshot.

¿Qué NO es un Snapshot?

Un snapshot NO es un backup. No es una forma de hacer copias de seguridad. No es una forma de Disaster Recovery. No es un business continuity plan. No es algo que haces porque sí.

Los snapshots de máquina virtual penalizan el rendimiento de la máquina virtual e impactan en el almacenamiento. Los Snapshots crecen y crecen y pueden llegar a ser un auténtico problema a nivel de espacio en disco. Además, intentar borrar un snapshot que lleva mucho tiempo creado y ha crecido de forma desproporcionada, puede ser una tarea casi imposible y hacer sudar a almacenamientos de varios miles de euros en según que entornos.

¿Como funcionan los Snapshots en VMware?

Cuando hacemos un snapshot de disco, VMware “atonta” de forma momentánea a la máquina virtual y aprovecha para darle un cambiazo en el disco duro. La máquina virtual comienza a partir de ese momento a escribir todos sus cambios en un nuevo archivo, que es un diferencial o delta con respecto al disco duro original de la máquina virtual. Es por esto que si queremos volver atrás en el snapshot, tan solo debemos indicar al hipervisor que le vuelva a dar el cambiazo a la máquina virtual y la apunte al disco duro que tenía anteriormente. Los snapshots se pueden anidar, de la siguiente forma

Como crear un Snapshot en VMware

Para crear un Snapshot en VMware, haremos click derecho sobre la maquina virtual y seleccionaremos Take Snapshot.

snapshots en vmware

En el menú que nos aparecerá, escribiremos el nombre del snapshot (busca algo identificativo que te permita saber luego si lo puedes borrar)

snapshots en vmware

También aparecerán dos opciones:

  • Snapshot the virtual machine’s memory – Es la opción para hacer snapshot también del estado de la RAM del disco, permitiendo guardar el estado de las aplicaciones en ejecución. Tarda más en realizarse, por lo que solo debes hacerlo cuando realmente te valga la pena.
  • Quiesce guest file system (Needs VMware Tools Installed) – Es una opción que hace que las VMware tools ordenen una escritura a disco al sistema operativo de todos los datos que tenga pendientes de escribir. Esto hace que los snapshots del disco tengan un mayor grado de consistencia, aunque no proporciona consistencia a nivel de aplicación, como en el caso de algunas bases de datos.

Con estos dos pasos, ya hemos creado un snapshot de la máquina virtual. Si quieres, puedes probar a borrar algunos archivos ahora que disponemos del snapshot.

Como volver a un snapshot anterior en VMware

Ahora que hemos borrado unos archivos (o instalado una actualización de sistema operativo o una aplicacion) vamos a imaginarnos que algo ha ido desastrosamente mal y queremos volver a como estábamos antes de comenzar. Haremos click derecho encima de la máquina virtual y seleccionaremos Manage Snapshots

snapshots en vmware

En el siguiente menú, seleccionaremos al punto de snapshot al que queremos volver y pulsaremos el botón Revert To. Esta acción nos dejará la máquina como la teníamos en ese momento. Si el snapshot incluía RAM, la máquina se restaurará encendida. Si el snapshot no incluía memoria RAM, la máquina se restaurará apagada y tendrás que encenderla a mano.

snapshots en vmware

Te has fijado en que los snapshots se pueden anidar, incluso crear diferentes ramificaciones? He visto desarrolladores que usan esto para crear desde una misma máquina virtual diferentes entornos y poder moverse de una configuración a otra de forma bastante rápida.

Borrar Snapshots en VMware

El borrado de snapshots en VMware se realiza seleccionando el snapshot que quieres eliminar y pulsando el botón Delete que ves en la captura anterior. Si quieres eliminarlos todos, deberás pulsar directamente el botón Delete All.

Estás avisado de que el borrado de snapshots es una tarea MUY intensiva con el disco que implica lecturas, escrituras y borrados. Procura hacerlos en horas valle de tu almacenamiento. También debes saber que durante el proceso de borrado de snapshots la máquina quedará “atontada” en algunos momentos y no puedes hacer nada para evitarlo.

Otra cosa muy importante y que lamentablemente todos aprendemos cuando un borrado de snapshot está afectando al rendimiento de nuestro almacenamiento. Un borrado de snapshots NO SE PUEDE CANCELAR.

Curso de VMware 5.5 – Maquinas Virtuales

Hasta ahora en nuestro curso de VMware hemos avanzado en conceptos de virtualización, organización del inventario de objetos en vCenter, almacenamiento, redes, pero todavía no hemos tocado propiamente máquinas virtuales. Las máquinas virtuales son el objeto de la virtualización propiamente y merecen un capítulo propio para aclarar una serie de conceptos importantes de cara a los siguientes capítulos.

Componentes de las maquinas virtuales

Una maquina virtual en sí no es más que un conjunto de archivos que almacenan información relativa a su configuración de hardware, y los datos del disco duro de esta. Entremos un poco más en profundidad en estos componentes.

¿Que contiene cada archivo de una máquina virtual de VMware?

Cuando trabajamos con VMware ESXi, estamos manejando, entre otras muchas cosas, máquinas virtuales (VMs). Estas máquinas virtuales están compuestas por varios archivos almacenados en carpetas dentro de datastores. Tomaremos como ejemplo el vCenter Server Appliance que instalamos en el capítulo anterior del curso de vmware para la certificacion VCP:

  • vcsa55.vmx
    Guarda los datos de configuración de la máquina virtual, desde su dirección MAC, hasta los discos que tiene conectados, etc.
  • vcsa55-3dbf9190.vswp
    Se trata del archivo de swap de la máquina virtual. Puede crecer hasta el tamaño que tiene la memoria RAM de la máquina virtual, por eso tiene asignados los 8192 MB de RAM de la máquina virtual + el overhead (veremos más adelante eso, en el capítulo dedicado a la gestión de memoria).
  • vcsa55.nvram
    Este archivo guarda una copia de la BIOS de la máquina virtual
  • vcsa55.vmsd
    En este archivo se guarda información relativa a los snapshots de la máquina virtual. Solo información relativa a ellos, no los snapshots propiamente.
  • vcsa55.vmx.lck
    Este archivo es un lockfile. Indica que esta máquina virtual se encuentra encendida en algún host.
  • vcsa55.vmxf
    Este archivo contiene informacion de configuración extra para las máquinas virtuales.
  • vmware.log
    Este archivo guarda un log de eventos relacionados con la máquina virtual. Puede ser útil a la hora de hacer resolución de problemas.
  • vcsa55.vmdk
    Contiene una serie de datos de descripción y configuración del siguiente archivo de la lista y correspondiente al primer disco duro de la máquina virtual
  • vcsa55-flat.vmdk
    Se trata del disco duro propiamente de la máquina virtual, un contenedor de datos en el que se almacenan los bytes correspondientes al primer disco duro de la máquina virtual
  • vcsa55_1.vmdk
    Contiene una serie de datos de descripción y configuración del siguiente archivo de la lista y correspondiente al segundo disco duro de la máquina virtual
  • vcsa55_1-flat.vmdk
    Se trata del disco duro propiamente de la máquina virtual, un contenedor de datos en el que se almacenan los bytes correspondientes al segundo disco duro de la máquina virtual
  • vcsa55-Snapshot1.vmsn
    Se trata de un archivo que contiene información relativa al estado del snapshot número 1 de la máquina virtual
  • vcsa55-000001.vmdk
    Se trata del archivo que guarda la configuración de un disco duro auxiliar creado al hacer un snapshot del primer disco duro de la máquina virtual.
  • vcsa55-000001-delta.vmdk
    Se trata del archivo de datos con las diferencias que va habiendo en el primer disco duro de la máquina virtual desde el momento de creación del snapshot.
  • vcsa55_1-000001.vmdk
    Se trata del archivo que guarda la configuración del disco duro auxiliar creado al hacer un snapshot del segundo disco duro de la máquina virtual.
  • vcsa55_1-000001-delta.vmdk
    Se trata del archivo de datos con las diferencias que va habiendo en el segundo disco duro de la máquina virtual desde el momento de creación del snapshot.

vCPU

Se trata de la cantidad de CPUs / cores de CPU a los que tienen acceso las maquinas virtuales. Pueden tratarse de una o más CPUs que se presentan físicamente como sockets o cores (podemos elegirlo). Aparte de configuraciones avanzadas y optimizadas como afinidad NUMA, etc, podemos vernos en la necesidad de presentar las CPUs como cores para respetar un escenario como este:

Hemos comprado un software que se licencia por CPU física, es decir, por socket físico.

Nuestro host de virtualización es un servidor con dos procesadores Xeon de 6 cores cada uno, sin embargo solo podemos utilizar uno de ellos para la maquina virtual si queremos respetar la modalidad de licenciamiento con el fabricante (una modalidad que por otro lado está totalmente obsoleta).

Para esto, daremos a nuestra maquina virtual 1 socket de CPU y 6 cores de CPU. Además, para asegurarnos de que vamos a utilizar solo una cpu física para esta maquina virtual, seleccionaremos CPU AFFINITY 0-5, lo cual hará que solo se utilicen los primeros 6 cores disponibles en el host para esta máquina virtual. De esta manera, la maquina virtual nunca llegará a hacer uso del segundo procesador físico y no estaremos rompiendo estos licenciamientos ridiculos.

Otro escenario es que tengamos un software con la misma licencia limitada a 1 CPU física y queramos hacerle trampas y proporcionarle más cores de los que tienen nuestros procesadores en el host. Siguiendo el ejemplo anterior del Dual Xeon Hexa Core, podríamos hacer creer a la máquina que tiene 1 Socket, pero otorgarle 12 CORES, con lo que aprovecharíamos el doble procesador y el software no rechistaría, pensando que tenemos 1 único procesador con muchos más cores de los que realmente tenemos.

CPU Affinity

Se trata de una opción de configuración de una maquina virtual en VMware que permite seleccionar y limitar el uso de cores del host a una maquina virtual. Si queremos que “maquinavirtual01” se ejecute unica y exclusivamente en los cores 0 y 1 de nuestro host, escribiremos 0,1 en los valores de CPU affinity. Ten presente que esto limita la ejecución de la maquina virtual a estos cores, pero de ninguna manera los reserva para esta maquina virtual en exclusiva. Ademas, estaras limitando el tiempo de cpu que se puede dedicar a los diferentes hilos que componen la maquina virtual en tiempo de ejecucion (worlds) por lo que es posible que termines viendo una merma del rendimiento conforme los diferentes worlds compiten entre si por obtener recursos en caso de saturacion de los cores a los que hemos limitado esa maquina virtual.

CPU affinity además, inhabilita la maquina virtual para ser manejada mediante la funcionalidad DRS automatizada de un cluster y no puede ser habilitado en una maquina virtual que resida en un cluster con DRS ya habilitado.

La recomendación general es que no utilices CPU affinity en tus maquinas virtuales pues puede penalizarte más que los beneficios que te aporte. Además, CPU affinity es una funcionalidad incompatible con vMotion y por tanto con DRS.

vRAM

La vRAM, o RAM virtual, es la cantidad de memoria del host que se asigna a cada máquina virtual para trabajar y, en definitiva, la que este guest verá como disponible. Se puede asignar desde unos pocos MB hasta 2TB de memoria RAM. La recomendación general es que se debe asignar a la máquina virtual tanta memoria como vaya a utilizar, ni más ni menos. No es interesante asignar a un equipo mucha más memoria de la que vaya a utilizar, pues estaremos perjudicando a las demás máquinas virtuales en caso de que ocurra una situación de contención de recursos (falta de recursos).

Disco Duro Virtual

Otro de los componentes básicos de una máquina virtual es su disco duro. Si bien es perfectamente posible ejecutar máquinas virtuales que no dispongan de almacenamiento de este tipo, existen pocos casos prácticos en los que vayamos a querer nuestra máquina virtual arrancando solo desde PXE o una ISO arrancable como un Live CD. Un ejemplo clásico de máquina virtual sin disco duro es aquella en la que montamos una ISO de un Live CD de Linux para probarlo durante un periodo determinado de tiempo y cuya información no nos preocupa perder si la apagamos.

Los discos duros virtuales de una maquina virtual se conectan mediante controladoras, al igual que en un ordenador normal. Disponemos de diferentes tipos de controladoras de disco:

  • Buslogic Parallel IDE
  • LSI Logic Parallel
  • LSI Logic SAS
  • VMware PAravirtual

Podemos conectar hasta 4 controladoras de disco SCSI a una maquina virtual, y 15 discos duros a cada una de ellas, por lo que podremos disponer de un máximo de 60 discos duros conectados a una única máquina virtual. En el caso de controladoras IDE, podremos conectar una única a nuestra maquina virtual, con hasta 4 dispositivos conectados a la misma. Si, por el contrario, elegimos un adaptador Virtual SATA, podremos conectar 4 de este tipo, con 30 dispositivos por cada controladora SATA virtual.

Crear maquinas virtuales

Una tarea habitual en un entorno virtualizado es la creación de máquinas virtuales dentro de nuestro vCenter. La creación de máquinas se realiza de la siguiente manera:

Seleccionaremos el nivel dentro del inventario en el que queremos crear nuestra máquina virtual. El nivel más alto al que podemos crear una máquina virtual es el cluster. Si no tenemos un cluster, crearemos la máquina virtual en un host. Las máquinas virtuales también pueden crearse en resource pools, vApps y carpetas.

Para crear una máquina virtual, haremos click derecho sobre el objeto padre donde queramos alojarla y haremos click en New Virtual Machine

crear maquinas virtuales

Ahora se nos presentara un menú en el que veremos todas las formas que existen para crear una maquina virtual.

crear maquinas virtuales

Repasémoslas:

Create a new virtual machine

La forma tradicional y más manual de crear una máquina virtual. Se te pedirán los valores de configuración de la máquina virtual para que luego procedas a instalarla, es como instalar un servidor físico normal.

Deploy from template

Se utiliza una máquina virtual que previamente has convertido en una plantilla. Suele estar ya instalada y lista para configurar valores como el hostname o su IP. Facilita bastante los despliegues de varias máquinas virtuales.

Clone an existing virtual machine

Puedes usar una máquina virtual ya existente para generar una clonándola. Tiene la ventaja de que tiene el mismo contenido, pero el inconveniente de que las ips, hostnames, configuraciones, son las mismas que las de la máquina que ya tienes. Puede haber conflictos de ips duplicadas, aplicaciones compitiendo por conexiones, etc.

Clone virtual machine to template

Con este método crearemos una plantilla o template a partir de una máquina virtual que ya tenemos lista y preconfigurada. Es requisito para la opcion 2 de este menú.

Clone template to template

Esta funcionalidad nos permite clonar un template o plantilla. Normalmente lo utilizaremos si queremos realizar modificaciones a la plantilla que solemos utilizar para desplegar máquinas virtuales.

Convert template to virtual machine

Esta funcionalidad suele ser complementaria a la anterior. Dado que los templates o plantillas de maquinas virtuales no se pueden encender, necesitamos convertir la plantilla a máquina virtual normal cada vez que vayamos a introducir algún cambio en la misma, como por ejemplo, instalar actualizaciones de sistema o meter nuevas versiones de software para disponer de ellas en futuros despliegues.

En este curso de VMware 5.5 vamos a aprender a crear máquinas virtuales de forma tradicional, pero es importante que conozcas TODAS las formas de creación de máquinas virtuales, incluidos los despliegues con plantillas/templates y la personalización del despliegue usando herramientas como sysprep. Si estás preparando el examen VCP, son preguntas de examen VCP.

Lo primero que se nos pedirá en el asistente de creación de máquinas virtuales será el nombre y ubicación de la misma. Debemos dar un nombre por el que la vayamos a poder identificar. Este nombre será también el nombre de la carpeta que se creará dentro del datastore para almacenar los diferentes archivos que conforman la máquina virtual.

crear maquinas virtuales

Como anteriormente hemos elegido el datacenter virt.es, se nos presenta una lista de los objetos que contiene. Yo he elegido el cluster laboratorio, pero puedes elegir el que se adapte a tus necesidades.

crear maquinas virtuales

La siguiente pantalla nos muestra una selección de los diferentes datastores que tenemos disponibles par almacenar nuestra máquina virtual. Elegiremos uno con suficiente capacidad disponible y debemos tener presente si el resto de nuestros hosts tienen visibilidad del mismo, para funcionalidades posteriores como HA, FT, vMotion…

crear maquinas virtuales

La siguiente pantalla del asistente nos pregunta la versión del hardware virtual que queremos poner a la máquina virtual. Esta elección, aparentemente sencilla, la hará compatible o incompatible con hosts de versiones anteriores a la que seleccionemos. Además, según la versión del cliente vSphere de Windows que utilices, podrás realizar o no acciones como editar las propiedades de la máquina virtual. Como regla general, para mantenernos en el lado seguro, diremos que el Cliente vSphere de Windows solo puede editar máquinas virtuales con hardware versión 8, equivalente a ESXi 5.0. Con las últimas versiones del cliente vSphere, podremos editar máquinas con versión superior de hardware, pero únicamente modificar los parámetros que ya existían en la versión 8 de hardware virtual. Las nuevas capacidades de hardware v9 y hardware v10 no serán editables. El cliente Web no tendrá problema para editar las máquinas virtuales de como máximo, su versión.

crear maquinas virtuales

Elegiremos el tipo de sistema operativo que va a ejecutar nuestro guest. Recordemos que el guest es la máquina virtual que estamos creando. En mi caso, he elegido Linux, y dentro de la familia Linux, el sistema operativo Debian 7.

crear maquinas virtuales

En esta pantalla se nos permitirá ajustar los parámetros que por defecto se recomiendan para el tipo de máquina virtual que hemos seleccionado crear. Pregunta de examen VCP. En mi caso suelo quitar la unidad de floppy, ya que nunca la utilizo.

crear maquinas virtuales

En esta última pantalla revisaremos todos los parámetros antes de crear la máquina virtual. Si estamos de acuerdo con todo, pulsaremos en Finish.

crear maquinas virtuales

Una vez la máquina virtual está creada, haremos click derecho sobre ella y seleccionaremos Power On para ponerla en marcha.

crear maquinas virtuales

Nuestra máquina virtual ya está creada, pero carece de un sistema operativo que arrancar. Pulsaremos el botón que se indica en la imagen para conectarle un archivo .iso en el que tendremos nuestro sistema operativo.

crear maquinas virtuales

Seleccionamos la opción Connect to CD/DVD image on a local disk, si lo tenemos descargado en nuestro ordenador de escritorio.

conectar cd a maquina virtual

La aplicación web solicitará permiso para acceder a nuestro ordenador, para poder montar la iso en la máquina virtual como si de un CD se tratase.

crear maquinas virtuales

Seleccionamos la iso que queramos instalar y pulsamos Open. En mi caso he usado una de lubuntu para el ejemplo, aunque posteriormente he de confesar que me arrepentí y puse kubuntu para probar KDE Plasma 5 🙂

crear maquinas virtuales

Volveremos a la pantalla de Summary para esta vez vamos a fijarnos en un texto que pone “Launch Console”. Haremos click sobre él. Es el equivalente a conectar un monitor y teclado a un servidor tradicional. Desde aquí controlaremos la instalación del sistema operativo en la máquina virtual.

crear maquinas virtuales

Vaya, la máquina virtual ya estaba arrancada y efectivamente ha detectado que no tenemos sistema operativo en el disco duro. Como hemos conectado la imagen ISO a modo de CD con posterioridad, vamos a mandarle un reinicio mediante el botón de Ctrl-Alt-Supr indicado en la imagen

crear maquinas virtuales

Una vez pulsamos, podremos ver como esta vez si arranca desde la ISO y comienza la instalación del sistema operativo.

Crear un template de una maquina virtual

Crear una plantilla puede facilitar enormemente el despliegue de múltiples máquinas virtuales. Una vez tenemos nuestra máquina virtual instalada, seguiremos el siguiente procedimiento para convertirla en plantilla.

Apagar la máquina virtual. Es requisito. Para convertir una máquina virtual preexistente en una template, ha de estar apagada.

Pulsaremos sobre la máquina virtual apagada con el botón derecho del ratón y elegiremos la opción Convert to Template. Esta opción puede estar dentro de All vCenter Actions en el Web Client.

templates maquinas virtuales

¡OJO! Para ver las plantillas tenemos que ir al tab de VMs, ya que no aparecen en el de Hosts and Clusters.

templates maquinas virtuales

Si nos fijamos en el inventario, el icono representativo de los templates es diferente al de las máquinas virtuales. Esto permite diferenciarlas mucho más fácilmente.

plantillas de maquinas virtuales

Crear una plantilla de personalización para despliegues (Customization Specification)

Cuando desplegamos una máquina virtual desde una plantilla, si el sistema operativo está soportado, podemos personalizar aspectos como su hostname, direccionamiento de red, DNS… Esto es una ventaja y hace mucho más ágil el despliegue de máquinas virtuales (te lo dije!)

Debes saber que para personalizar despliegues en Windows, podemos utilizar la herramienta sysprep de microsoft, que permitirá personalizar más a fondo el despliegue.

En mi caso, como voy a desplegar y personalizar una plantilla de Ubuntu, crearé una customization specification para este sistema operativo.

Haremos click en el icono de Home de vSphere Web Client, para posteriormente hacer click en Customization Specification Manager

personalizar despliegue maquina virtual

El asistente de creación de personalización de VMs nos pedirá inicialmente el sistema operativo que vamos a personalizar. Puede ser Windows o Linux. Ten presente que no todos los Linux están soportados.

personalizar despliegue maquina virtual

La siguiente pantalla nos permite personalizar opciones de hostname y dominio de la máquina que vamos a personalizar en tiempo de despliegue. Personalmente, creo que la opción más sensata es elegir el mismo  hostname que el nombre que vamos a dar en el inventario de vCenter a la máquina virtual. Nos ahorrará confusiones para identificar nuestros equipos cuando el entorno crezca.

personalizar despliegue maquina virtual

La siguiente pantalla no tiene ningún secreto y nos pide la zona horaria del equipo.

personalizar despliegue maquina virtual

El siguiente paso es el de configuración de red. Podemos elegir que interfaces se configuran con DHCP y cuales se configuran con una dirección estática o una combinación de ambos si tenemos más de una tarjeta de red. El paso siguiente es también relacionado con la red y consistirá en configurar los servidores  DNS.

personalizar despliegue maquina virtual

El paso final es el habitual de revisar los parámetros antes de finalizar la creación del guest customization specification.

personalizar despliegue maquina virtual

Desplegar una plantilla y personalizarla

Utilizando el guest customization specification que acabamos de crear, desplegaremos la plantilla.

Haremos click derecho encima de la plantilla y seleccionaremos Deploy VM from this Template

desplegar template vmware

Se nos pedirá el nombre que queremos poner a la maquina virtual en el inventario.

desplegar template vmware

El siguiente paso nos pide la ubicación de la máquina virtual.

desplegar template vmware

A continuación, se nos pedirá el datastore donde queremos desplegar la máquina virtual.

desplegar template vmware

El siguiente paso entra directamente en la personalización de la máquina virtual que estamos desplegando.

desplegar template vmware

Se nos permitirá elegir una especificacion de personalización de las que ya existen. En este caso, elegiremos la que hemos creado en el paso anterior.

desplegar template vmware

Revisamos los parámetros y aceptamos si estamos de acuerdo.

desplegar template vmware

Hemos visto como desplegar maquinas virtuales desde una plantilla nos permite disponer de forma ágil, de máquinas virtuales que nacen “iguales” ahorrándonos el paso de instalación del sistema operativo, y que en cuestión de minutos, podemos disponer de varias maquinas virtuales con diferentes hostnames, configuración de red, etc. Se trata de conceptos básicos, pero para quien no quiera meterse en formas de despliegue más complicadas (Orchestrator), le servirá de sobra.

El tiempo de despliegue de la máquina virtual que he usado en el ejemplo ha sido de 3 minutos. En almacenamientos de mayor categoría que el de mi laboratorio, con tecnología flash, se puede disponer de máquinas virtuales listas para la acción en pocos segundos.

desplegar maquinas virtuales

Borrar maquinas virtuales

Para borrar una máquina virtual en VMware, haremos click derecho sobre ella y seleccionaremos Delete From Disk. Si elegimos Remove from Inventory, la máquina virtual desaparecerá del inventario de vCenter, pero permanecerá en el datastore intacta.

Power States

Las maquinas virtuales en VMware pueden tener diferentes estados

  • Encendida (Power On) – La máquina virtual se encuentra en funcionamiento. Una máquina virtual encendida consume recursos de CPU, memoria, disco y red en el hipervisor donde se esté ejecutando.
  • Apagada (Power Off) – La máquina virtual se encuentra apagada y no está consumiendo recursos en el hipervisor. Sin embargo, la máquina virtual sigue consumiendo recursos de disco (espacio) en el almacenamiento donde se encuentre.
  • Suspendida (Suspended) – La máquina virtual se encuentra en estado suspendido. Su memoria RAM se ha volcado a disco duro y después la máquina virtual se ha apagado. Al encenderla, volverá al mismo punto en que estaba antes de suspenderla. Es el equivalente al suspender de un equipo portátil normal.

Además existen los siguientes comandos que hacen cambiar de estado a la maquina virtual:

  • Reset – Es el equivalente a dar un botonazo a la máquina virtual. El reset desconectará las imágenes de CD que tenga conectadas desde la consola la maquina virtual, igual que un power off – power on.
  • Shut Down Guest OS – Manda una orden a las VMware tools para que envíen una señal de apagado ACPI. Esta señal equivale a un apagado ordenado del equipo. Es la opción preferida por delante del apagado de botonazo.
  • Restart Guest OS – Manda una orden a las VMware tools para que envíen una señal de reinicio ACPI. Esta señal equivale a un reinicio desde el sistema operativo y es preferible a  realizar un reset.

 

 

Curso de VMware vSphere 5.5

El curso de VMware 5.5 que ofrezco en esta página es lo que dice ser, sin más. Un curso, que entra en cierta profundidad en el manejo de VMware vSphere para que los que nunca han manejado una plataforma virtualizada puedan sacar rendimiento a vSphere de forma guiada. Este curso está realizado procurando tocar los objetivos del manual de certificación VCP de VMware, aunque algunos objetivos que no se han incluido.

El curso de VMware 5.5 es 100% gratuito y procuro que sea lo más didáctico posible. En cualquier caso, si encuentras cosas que no ves bien explicadas, que crees que podrían cambiarse, etc, soy totalmente receptivo a sugerencias.

Este curso de VMware no sustituye de ningún modo a la formación oficial requerida para presentarse a los examenes de certificación VCP, pero si puede ser un buen material de repaso para aquellas personas que han terminado el curso oficial y desean montarse en su casa o trabajo un laboratorio en el que realizar las prácticas.

A continuación, presento en orden los capítulos que se van haciendo públicos del curso de VMware 5.5

Curso de VMware vSphere 5.5

Tema 1 – Instalar ESXi
Tema 2 – Instalar vCenter
Tema 3 – Tipos de Almacenamiento
Tema 4 – vSphere Web Client, Datacenters y Clusters
Tema 5 – Virtual Networking, VMkernels, vSwitches
Tema 6 – Almacenamiento compartido en VMware
Tema 7 – Maquinas Virtuales
Tema 8 – Snapshots

Y los que quedan por venir…

 

Q&A del curso de VMware

¿Cuantos temas va a tener el curso de VMware?

Calculo que llegará a los 20. En todo caso, seguiré creando capítulos hasta que crea que he cubierto en el curso de VMware la totalidad de herramientas necesarias para diseñar y administrar un entorno virtualizado con VMware vSphere.

¿Puedes ayudarme con mi entorno?

Puedo atender consultas y hacer lo que esté en mi mano para ayudarte, pero mi tiempo es limitado y no vivo de realizar consultorías.

¿Puedes conectarte a mi vCenter a ver que le ocurre?

Me temo que no puedo dar soporte a la gente con sus entornos. Permitir que alguien administre tu entorno sin conocer a la perfección como está montado y por qué cada cosa está de cada manera puede ser peligroso.

¿Es válido este curso de VMware si me quiero presentar a la certificación VCP?

No. Este curso no es oficial ni reconocido de ninguna manera por VMware. Aunque si tengo la certificación de VMware, no soy instructor. Deberás atender a uno de los muchos (y muy buenos) cursos de formación VMware que tenemos disponibles en España.

¿Qué hardware recomiendas para el curso?

A lo largo del curso vamos a utilizar:

  • 3 hosts ESXi (2 cores y 4GB de ram por cada uno te sirve)
  • 4 puertos gigabit ethernet en cada host (podrías usar solo uno adaptando algunos ejercicios)
  • 2 volumenes NFS exportados desde algún dispositivo de almacenamiento compartido.

 

curso-de-vmware-vsphere-55

Curso de VMware 5.5 – Almacenamiento Compartido

En este corto capítulo de nuestro curso de vmware añadiremos almacenamiento compartido desde vCenter a nuestros hosts esxi del laboratorio VMware. Hace un par de capítulos ha habíamos pasado por encima del almacenamiento, creando datastores en almacenamiento local y mirando como se agregaban desde el cliente vmware de Windows. Ahora vamos a crearlos utilizando vCenter, que es la forma habitual de trabajar y simplifica en gran medida tareas como esta, ya que podemos agregar almacenamiento compartido a literalmente centenares de hosts con una única operación. En este laboratorio utilizaremos NFS como protocolo para el almacenamiento compartido y crearemos dos datastores a partir de dos volumenes NFS que debemos tener configurados en nuestro laboratorio con la solución de almacenamiento compartido que hayamos elegido.

Antes de nada, utilices el protocolo que utilices de almacenamiento compartido, debes dar permisos en el lado del storage para poder conectar nuestros hosts ESXi. En el caso de NFSv3, la validación es simplemente mediante la ip de origen que intenta montar el volumen. Yo ya he creado los permisos correspondientes de lectura y escritura en el dispositivo de almacenamiento compartido de forma previa.

Agregar Datastores en vCenter

Para agregar almacenamiento compartido en vCenter, y dado que queremos agregarlo en todos los hosts de nuestro cluster del laboratorio, iremos en el inventario a la opción Hosts and Clusters

almacenamiento compartido vmware

A continuación, haremos click derecho en el cluster y seleccionaremos New Datastore

almacenamiento compartido vmware

Elegiremos la opción NFS

almacenamiento compartido vmware

Proporcionamos los datos del dispositivo de almacenamiento y el volumen exportado por NFS.

almacenamiento compartido vmware

Seleccionaremos los hosts a los que queremos agregar este almacenamiento compartido y finalizaremos el asistente.

almacenamiento compartido vmware

Podremos ver en el panel de tareas recientes que se ha completado correctamente la operación.

almacenamiento compartido vmware

A continuación, repetiremos el procedimiento para agregar un segundo datastore NFS, necesario para las prácticas de Storage DRS y Storage vMotion.

Una vez dispongamos del segundo datastore, podemos irnos, en el panel de inventario, a la pestaña de almacenamiento y podremos ver los datastores disponibles

almacenamiento compartido vmware

Si queremos confirmar que efectivamente, los 3 hosts de nuestro laboratorio se han conectado al nuevo almacenamiento compartido, seleccionaremos el datastore e iremos a Related Objects > Hosts

almacenamiento compartido vmware

Crear un Datastore Cluster

Al igual que podemos crear clusters con los hosts ESXi, podemos crear Datastore Clusters con el almacenamiento compartido. Esto nos sirve para repartir su ocupación o para balancear la carga de trabajo que tienen. A continuación crearemos un Datastore Cluster con los dos volumenes NFS que hemos agregado anteriormente.

Para crear un Datastore Cluster, dentro de la misma pestaña de Almacenamiento que estábamos antes, haremos click derecho sobre el Datacenter y elegiremos la opción New Datastore Cluster

almacenamiento compartido vmware - datastore cluster

Lo nombraremos LAB-CLUSTER y desactivaremos de momento DRS

almacenamiento compartido vmware - datastore cluster

Proseguimos con las opciones por defecto del asistente hasta llegar a la pantalla de Select Clusters and Hosts. En esta ventana indicaremos cuales son los hosts y clusters que deberán tener conectividad con los datastores que formen parte del Datastore Cluster. En cierto modo es una forma de filtrar los datastores que van a participar en el cluster. Seleccionaremos todo el cluster laboratorio.

almacenamiento compartido vmware - datastore cluster

A continuación, elegiremos los datastores disponibles en común dentro del objeto que seleccionamos en el paso anterior. Como todos los hosts pertenecientes al cluster laboratorio tienen conectados los datastores QNAP01-VM01 y QNAP01-VM02, nos deja elegirlos, y así lo haremos.

almacenamiento compartido vmware - datastore cluster

Finalizamos el asistente ya veremos el cambio reflejado en el panel de inventario, donde hemos dejado de ver directamente los dos datastores para pasar a ver el cluster que los contiene.

almacenamiento compartido vmware - datastore cluster

 

Curso de VMware 5.5 – Virtual Networking, vSwitch

Virtual Networking – VMkernels, Portgroups, vSwitches

En este quinto capítulo de nuestro curso de VMware para la certificacion VCP vamos a configurar nuestros hosts ESXi, aprendiendo lo que son los VMkernels, vSphere Standard vSwitch, vSphere Distributed vSwitch y configurando los VMkernels necesarios para vMotion, Fault Tolerance y VSAN, funcionalidades que veremos en posteriores capítulos.

Configurar la red en VMware vSphere

La base principal de la comunicación en VMware pase por los vSwitches. Disponemos de dos tipos de vSwitches que veremos a continuación.

vSphere Standard vSwitches

Los Switches Standard de vSphere son una entidad propia de cada host vSphere y se utilizan para comunicar las máquinas virtuales con el exterior utilizando los adaptadores de red físicos del host. Un vSphere Standard vSwitch (VSS a partir de ahora) se compone de physical adapters (mínimo 0) y permite conectar a el dos tipos de objetos. Portgroups y VMkernels.

vSphere Distributed vSwitches

Los Switches Distribuidos de vSphere (Distributed vSwitch o DVS). Los Distributed Virtual Switch permiten simplificar enormemente la gestión y configuración de redes en un entorno con varios hosts ESXi. Para configurarlos, se crea el DVS y se asignan las tarjetas de red que queramos de una serie de hosts. Automágicamente, se creará un switch en todos esos hosts que compartirá siempre la misma configuración, eliminando posibilidades de error por la creación manual de puertos, etc. DVS tiene ventajas añadidas como la creación de puertos LACP, Monitorización por Netflow de los puertos de las máquinas virtuales, pero sinceramente para mí la mayor ventaja es la facilidad de administración y comodidad a la hora de añadir hosts nuevos a tu infraestructura. DVS está disponible solo con el licenciamiento VSAN y Enterprise Plus.

Virtual Machine Portgroups

Son objetos que tienen como misión proporcionar conectividad entre las máquinas virtuales de un host y los vSwitches configurados en ese host. Un Porgroup puede ser Standard o Distribuido. En un Virtual Machine Portgroup podemos configurar VLANs, reglas de seguridad, Traffic Shaping y NIC Teaming

VLANs

Sirven para etiquetar el tráfico de red con una marca especial que hace que solo sea visible para las máquinas virtuales conectadas a ese portgroup o a otras que tengan configurada esa VLAN. Las VLANs pueden quedarse dentro del ámbito de los vSwitches o propagarse más arriba a través de los switches físicos de la capa de electrónica de red si se configuran estas VLANs en ellos.

Security

Podemos configurar las siguientes reglas de seguridad de forma individual en cada Virtual Machine Portgroup

  • Promiscuous Mode (aceptar / rechazar)
    Al activar esta opción permitimos que una máquina virtual conectada a este Virtual Machine Porgroup pueda poner su interfaz de red en modo promíscuo, capturando todos los paquetes de red que lleguen a ese Virtual Machine Porgroup en particular. Puede ser util para la resolución de problemas o la instalación de un sistema de detección de intrusiones (IDS).
  • MAC Address Changes (aceptar / rechazar)
    Al activar esta opción, permitiremos que las máquinas virtuales de dentro del Virtual Machine Portgroup cambien su dirección mac desde alguna aplicación o el propio sistema operativo. Puede sernos util a la hora de montar un bonding / teaming en un equipo.
  • Forged Transmits (aceptar / rechazar)
    Al activar esta opción estaremos permitiendo que de la máquina virtual salgan paquetes marcados con una dirección MAC de origen diferente a la que tiene asignada esa máquina virtual. Yo solo he tenido que hacer esto a la hora de realizar simulaciones para resolución de problemas.

Traffic Shaping

Nos permite limitar el ancho de banda que puede consumir este Virtual Machine PortGroup de tres maneras diferentes:

  • Average Bandwidth
    Es el ancho de banda medio que permitimos que fluya por este Virtual Machine Port Group, medido en kilobits por segundo.
  • Peak Bandwidth
    El ancho de banda máximo que permitimos que alcance este Virtual Machine Port Group en cualquier momento, medido en kilobits por segundo.
  • Burst Size
    La cantidad de kilobytes que permitimos un pico de tráfico antes de penalizar el ancho de banda aplicando el traffic shaping. Este parámetro se aplica siempre que no se haya superado el ancho de banda medio establecido en la primera limitación y puede llegar hasta el valor de Peak Bandwidh siempre y cuando haya ancho de banda disponible en el interfaz.

NIC Teaming

En el menú de configuración de NIC Teaming dentro de un Virtual Machine Portgroup nos encontramos con dos bloques de opciones configurables:

Policy Exceptions

  • Load Balancing – Nos permite establecer opciones de balanceo de carga entre dos o más tarjetas de red físicas.

    • Route based on the originating virtual port ID
      Balanceará la carga tomando como parámetro el puerto virtual al que se conecta la VM dentro del Virtual Machine PortGroup. Tomemos el siguiente ejemplo:

      • Tenemos VM1 con identificador en el inventario de su puerto de red 001, VM2 con identificador 002, VM3 con identificador 003. Si tenemos 2 tarjetas de red, comenzará asignando el tráfico de VM1 por la NIC1, el de VM2 por la NIC2, el de la VM3 por la NIC3, por ejemplo. Los ID de los puertos no siempre son correlativos, pero el balanceo de carga debería ser siempre estable en lo que se refiere a VM – NIC física. Es similar al siguiente pero se controla mejor por donde va el tráfico de cada máquina virtual.
    • Route based on IP hash – Este balanceo de carga tomará los parámetros de dirección IP de origen y dirección IP de destino para aplicarles un hash (una operación). Dependiendo de ese resultado, enviará el tráfico por una tarjeta de red u otra. En este escenario (y siempre que haya más de una dirección IP generando tráfico), el tráfico se enviará de forma activa por todas las tarjetas de red incluso aunque solo haya una máquina virtual. Se suele utilizar para balancear el ancho de banda en servidores capaces de saturar el ancho de banda de una única interfaz.
    • Route based on source MAC hash – Este modo de balanceo tomará como factor de decisión la dirección MAC de la tarjeta de red de la máquina virtual que envía el tráfico. Si una máquina virtual tiene más de una tarjeta de red virtual conectada, podría enviarse el tráfico de forma activa por más de un interfaz físico del host. En caso contrario, es similar al caso 1.
    • Use Explicit failover order – En este modo de balanceo, especificamos en el bloque de opciones 2 (Failover Order) cuales van a ser las tarjetas de red físicas del host que van a usarse de forma activa, mantenerse en espera para un caso de fallo, o directamente por que tarjeta de red física no vamos a mandar nada de tráfico nunca.
  • Network  Failover Detection – Establece los métodos y criterios para detectar la caida de un interfaz de red físico de un host ESXi.
    • Link status only – La caida del enlace físico de la tarjeta de red del host ESXi es la que hace considerar al host que no tiene conectividad y que debe hacer el cambio a la tarjeta de red de StandBy (si la hubiera).
    • Beacon probing – Es una modalidad de detección de problemas de red en la que podemos detectar el mal funcionamiento de una tarjeta de red incluso si no pierde el enlace físico. Funciona mediante el envío de paquetes de broadcast desde todas las tarjetas de red pertenecientes a un mismo team (grupo de nics agregadas). El switch, al recibir estos paquetes, está obligado a retransmitirlos a todos los puertos de red que tiene conectados. De esta forma, si ESXi detecta que le faltan los broadcasts de una tarjeta de red la marcará como caida y utilizará las demás. Este método de prueba está recomendado con al menos tres interfaces de red dentro de un mismo team, para que ESXi pueda determinar que falla una de ellas (las otras dos se ven entre sí, pero no ven a la tercera que se ha caido). Esta modalidad NO DEBE USARSE cuando usamos balanceo mediante hash IP.
  • Notify Switches – Si activamos esta opción, al hacer un failover de tarjeta de red (activar la secundaria porque hemos perdido la primaria), ESXi enviará paquetes falsos supuestamente originados en las máquinas virtuales que acaban de cambiar de tarjeta de red física, de manera que los switches actualicen sus tablas ARP y acepten sin problemas el tráfico de esas máquinas virtuales en un nuevo puerto físico.
  • Failback – Con esta opción seleccionamos si queremos que una tarjeta de red, tras volver a considerarse como activa (recuperar el link, por ejemplo) vuelva a entrar en funcionamiento de forma inmediata. Un caso típico en el que podríamos querer tener esta opción a NO, es cuando estamos haciendo trabajos de red en un switch y una de las NICS, conectada a este switch, va a estar flapeando (levantandose y cayendose) durante un periodo de tiempo.

Failover Order

Nos permite configurar las interfaces físicas del vSwitch a las que se conecta el Virtual Machine Portgroup para establecer uno de los siguientes escenarios:

  • Activo-Activo
    Todas las tarjetas de red que coloquemos en este grupo se considerarán activas y serán candidatas a enviar tráfico de las máquinas virtuales en condiciones normales.
  • Activo-StandBy
    El tráfico se moverá solo por las tarjetas de red que coloquemos en el grupo Active y las que asignemos al grupo StandBy quedarán disponibles para entrar en funcionamiento en caso de que haya un problema de red que cause que las activas dejen de estar disponibles.
  • Unused
    Nos permitirá especificar tarjetas de red del vSwitch al que se conecta el Virtual Machine Porgroup que deseamos dejar SIN USO de forma específica, porque queremos dedicarlas a otros menesteres, por ejemplo.

Realiza este ejercicio solo si tienes más de una tarjeta de red en tu host. Si solo tienes una tarjeta de red, tu host ESXi ya tendrá un Virtual Machine Portgroup que utilizaremos más adelante y deberás obviar los ejercicios de Distributed Virtual Switch, adaptándolos a Standard Virtual Switch (Creando vmkernels y Portgroups en tu único vSwitch0).

A continuación crearemos un Virtual Machine Portgroup en uno de los hosts que hemos añadido a nuestro cluster del laboratorio del curso de VMware.

Seleccionaremos un Host en el inventario e iremos a Manage > Networking > Virtual Switches, para hacer click en el botón de Add Networking, seleccionando Virtual Machine Port Group for a Standard vSwitch

vmware networking - vSwitches

A continuación elegiremos crear un nuevo Standard vSwitch

vmware networking - vSwitches

Seleccionaremos las nics que queramos asignar a nuestro VSS

vmware networking - vSwitches

Las ordenamos en función de que queramos utilizarlas en modo activo, pasivo o dejarlas sin uso de momento.

vmware networking - vSwitches

Continuamos el Asistente de creación poniendo un nombre al nuevo Virtual Machine Portgroup y finalizamos.

vmware networking - vSwitches

Si hacemos click en el nuevo vSwitch que hemos creado, veremos las tres tarjetas de red que tiene asignadas, las dos que tiene activas y la otra sin uso (de forma genérica para todo el vSwitch)

vmware networking - vSwitches

Ahora vamos a crear un segundo Portgroup en el vSwitch 1 y vamos a hacer que su tráfico vaya solamente por la vmnic3, que hemos dejado sin uso en el Portgroup anterior.

vmware networking - vSwitches

Tras crear un nuevo Virtual Machine Portgroup y seleccionar vSwitch1 como el vSwitch al que vamos a asignarlo, haremos click en su nombre y pulsaremos el botón de Editar

vmware networking - vSwitches

En la sección de configuración de Teaming and Failover, podemos hacer un override de la configuracion por defecto del vSwitch 1 (que dice que por defecto todos los portgroups conectados a él usan la vmnic1 y vmnic2 de forma activa / activa) y seremos capaces de subir vmnic3 desde Unused adapters hasta Active y bajar las otras dos a Unused.También aquí podremos cambiar las opciones de balanceo de carga, detección de fallos, etc que explicabamos anteriormente. En el caso de este Virtual Machine Portgroup no tiene mucho sentido ya que solo tiene la vmnic3 como punto de comunicación con el exterior, así que de poco nos serviría el load balancing. Sin embargo si podríamos aplicarlo al penúltimo portgroup que creamos, que sí tenía dos interfaces activas.

Elimina el vSwitch1 que acabamos de crear, seleccionándolo y pulsando el botón Remove Selected Standard vSwitch.

vmware networking - vSwitches

Confirmamos la eliminación del vSwitch 1

vmware networking - vSwitches

VMkernels (VMK)

Los VMkernels son interfaces especiales que permiten la conectividad únicamente del HOST ESXi. Se utilizan para diversas funciones, como administración, vMotion, Fault Tolerance, VSAN, Replicación y Almacenamiento pero única y exclusivamente por parte del HOST ESXi.

Se pueden tener varios VMkernels por host ESXi, pero deberemos tener como mínimo  para la administración remota de ese host ESXi. Los VMkernels funcionan utilizando IP como protocolo de comunicación, tanto ipv4 como ipv6, aunque existen algunas limitaciones al utilizar ipv6 en los VMkernels.

Creación de un Distributed Virtual Switch (Switch Distribuido o DVS)

El resto de ejercicios del curso de VMware los realizaremos utilizando Distributed Virtual Switch, así que vamos a crear un DVS con las tarjetas de red de que dispongamos en nuestro laboratorio. En mi caso los hosts esxi tienen 7 tarjetas de red distribuidas de la siguiente forma:

  • vmnic0 – Gestion, tráfico de VMs y Almacenamiento
  • vmnic1 – vMotion
  • vmnic2 – vMotion
  • vmnic3 – Fault Tolerance
  • vmnic4 – Fault Tolerance
  • vmnic5 – VSAN
  • vmnic6 – VSAN

Si dispones de solo dos tarjetas de red, te recomiendo agrupar por un lado vMotion, FT y VSAN y por otro Gestión, Almacenamiento y Servicio.(lo óptimo es dejar almacenamiento apartado en una nic propia, pero no en nuestro laboratorio del curso de vmware no vamos a mover barbaridades de tráfico, así que nos servirá).

Para crear un Distributed Virtual Switch iremos en el vSphere Web Client a la pantalla principal Home y elegiremos Networking

vmware networking - Distributed Switch

Haremos click derecho encima de nuestro Datacenter y elegiremos la opción de New Distributed vSwitch

vmware networking - Distributed Switch

Elegimos un nombre para nuestro Distributed vSwitch. Este será el primero de tres Distributed vSwitches que vamos a crear para vMotion, FT y VSAN.

vmware networking - Distributed Switch

Seleccionamos la versión 5.5.0 de Distributed vSwitch para disponer de todas las características que aporta la última versión.

vmware networking - Distributed Switch

Seleccionamos 2 uplinks para nuestro Distributed vSwitch

vmware networking - Distributed Switch

Al finalizar el asistente podremos ver que aparece un nuevo elemento de red en nuestro inventario de objetos de red, el Distributed vSwitch que vamos a dedicar a vMotion

vmware networking - Distributed Switch

Ahora vamos a agregar hosts a este Distributed vSwitch haciendo click derecho sobre él y pulsando Add and Manage hosts

vmware networking - Distributed Switch

En el asistente, seleccionamos Add Hosts

vmware networking - Distributed Switch

Añadimos los hosts de nuestro laboratorio del curso de vmware pulsando en el botón New hosts

vmware networking - Distributed Switch
vmware networking - Distributed Switch

Seleccionamos Manage Physical Adapters para agregar a este Distributed vSwitch las tarjetas de red de cada host correspondientes a este Distributed vSwitch

vmware networking - Distributed Switch

Seleccionamos los uplinks que queremos para este Distributed vSwitch y pulsamos el botón de Assign uplink. En el caso de mi laboratorio, asignaré vmnic1 al uplink 1 y vmnic2 al uplink 2. Repetimos la operación con el resto de hosts.

vmware networking - Distributed Switch

La siguiente ventana nos analizará el impacto que puede tener esta operación sobre puertos vmkernel ya existentes. Como estamos migrando uplinks vacíos al Distributed vSwitch, no va a haber ningún impacto.

vmware networking - Distributed Switch

 

Finalizamos el asistente.

El siguiente paso es crear un Distributed Port Group al que conectar los VMkernels de cada host ESXi destinados a vMotion. Para completar esta tarea, haremos click derecho sobre el Distributed vSwitch y seleccionaremos New Distributed Port Group.

vmware networking - Distributed Switch

 

Le daremos un nombre identificativo, en nuestro caso vMotion.

vmware networking - Distributed Switch

Dejamos las opciones que vienen por defecto salvo la VLAN si vamos a utilizar alguna en los puertos directamente conectados. Si estás usando un ESXi anidado, te recomiendo que configures las opciones avanzadas y permitas modo promíscuo, cambio de MAC y Forged Transmits.

vmware networking - Distributed Switch

Finalizamos el asistente.

Ahora vamos a crear los vmkernels destinados a gestionar el vMotion en los hosts del laboratorio del curso de vmware. Para ello, iremos en el inventario a la pestaña de hosts, seleccionaremos cada uno de los hosts, y en Manage > Networking, haremos click en Virtual Switches. Después seleccionaremos el nuevo Distributed vSwitch llamado vMotion y haremos click en el botón de Add Host Networking.

vmware networking - Distributed Switch

Seleccionaremos Añadir VMkernel Network Adapter

vmware networking - vmkernel

Seleccionaremos el Distributed Port Group que acabamos de crear en el paso anterior.

vmware networking - vmkernel

En el siguiente paso, seleccionaremos tráfico de vMotion e IPv4

vmware networking - vmkernel

El siguiente apartado requiere que asignes direccionamiento IP propio de tu red. En mi red, la red de vMotion es 192.168.2.x.

vmware networking - vmkernel

Finalizamos el asistente

 

Repetimos el paso de creación de VMkernel para los hosts esxi02 y esxi03.

Repetimos el proceso completo de creación de Distributed Virtual Switch para crear:

  • Un nuevo Distributed vSwitch para FT (Fault Tolerance)
  • Un nuevo Distributed vSwitch para VSAN
  • Un nuevo Distributed Port Group para FT
  • Un nuevo Distributed Port Group para VSAN
  • Un nuevo VMkernel destinado a Fault Tolerance en cada host ESXi, creándolo en el su Distributed vSwitch / Distributed Port Group correspondiente.
  • Un nuevo VMkernel destinado a VSAN en cada host ESXi, creándolo en su Distributed vSwitch / Distributed Port Group correspondiente.

Al final, tus distributed vSwitches deberán quedar como puedes ver en la imagen:

vmware networking - vmkernel

En la configuración de CADA HOST, deberíamos tener vmkernels configurados en cada uno de los Distributed Port Groups como vemos en la imagen:

vmware networking - vmkernel

Existen formas de hacer tareas de las que hemos realizado anteriormente de forma combinada, como crear un portgroup inicial a la hora de crear el Distributed vSwitch, o Crear VMkernels a la hora de añadir hosts a un Distributed vSwitch. Practica por tu cuenta esas opciones.

Para futura referencia, en mi laboratorio estoy usando los siguientes direccionamientos ip en los 3 hosts:

esxi01

Gestion y almacenamiento 192.168.1.11

vMotion – 192.168.2.11

Fault Tolerance – 192.168.3.11

VSAN – 192.168.4.11

esxi02

Gestion y almacenamiento 192.168.1.12

vMotion – 192.168.2.12

Fault Tolerance – 192.168.3.12

VSAN – 192.168.4.12

esxi03

Gestion y almacenamiento 192.168.1.13

vMotion – 192.168.2.13

Fault Tolerance – 192.168.3.13

VSAN – 192.168.4.13

Para comprobar si la conectividad es correcta, podemos entrar en uno de los hosts por ssh y hacer vmkping a las ips de los vmkernels de los demás hosts.

Comprobar conectividad vMotion

Entramos a esxi01 por ssh y hacemos vmkping -c1 a las ips de vmkernel de vMotion de los otros hosts. El -c1 es para solo hacer un ping.

Desde esxi01 tenemos conectividad vMotion con los otros dos hosts. Bien, procederemos a probar FT y VSAN de la misma forma

Comprobar conectividad Fault Tolerance

Desde la sesión SSH que tenemos abierta en esxi01, hacemos vmkping a las ips de los vmkernels de FT de los otros dos hosts.

Comprobar conectividad VSAN

Por ultimo, de nuevo desde la sesion root de SSH que tenemos abierta en esxi01, hacemos vmkping a las ips de los vmkernels de VSAN que tenemos en los otros dos hosts.

 

Hasta aquí llegamos en esta entrada del curso de vmware para ayudarte con la certificacion VCP. En siguientes capítulos vamos a comenzar a habilitar y utilizar funciones vomo vMotion, HA, DRS y Fault Tolerance.

Curso de VMware 5.5 – Datacenters y Clusters

Curso de VMware para la certificacion VCP – vSphere Web Client, Datacenters, Clusters

En el cuarto capítulo del curso de VMware para la certificacion VCP vamos a repasar los diferentes objetos que podemos encontrarnos en el inventario de vSphere. Estos objetos, si bien se organizan jerárquicamente, no se utilizan únicamente para simple organización y utilizar algunos como forma de organizar el inventario es un error grave como veremos posteriormente. Tras repasar estos conceptos, añadiremos a nuestro recién instalado vCenter toda esa jerarquía de forma práctica.

En nuestro curso de VMware utilizaremos los siguientes nombres de objetos de inventario:

  • Datacenter virt.es
    • Cluster laboratorio
      • Hosts
        • esxi01.virt.es
        • esxi02.virt.es
        • esxi03.virt.es
    • Networks
      • Master Gestion
      • vMotion
      • FT
      • VSAN
    • Datastores
      • QNAP01-VM01
      • QNAP01-VM02

Datacenters

Un Datacenter en vSphere es una entidad organizativa que agrupa diferentes objetos que interactúan entre sí en vSphere. Un Datacenter agrupa cuatro jerarquías diferentes de objetos:

  • Hosts y Clusters
  • Maquinas virtuales y Templates
  • Networks
  • Datastores y Datastore Clusters

Dentro de un datacenter, no se pueden repetir los nombres de objetos de Networks ni Datastores. De esta forma, no podemos tener una red VSAN en un cluster y otra que se llame igual en otro cluster, si ambos comparten el mismo datacenter. Igualmente, tampoco se pueden repetir los nombres de datastores dentro de un mismo datacenter. Si que se puede, sin embargo, tener datastores con el mismo nombre si se encuentran en diferentes datacenters lógicos. A lo largo de este curso de vmware, cuando hablemos de datacenters, siempre estaremos hablando del nivel lógico del inventario de vSphere, no de edificios donde alojar servidores.

Clusters

Un cluster en vSphere es una agrupación de hosts ESXi con sus correspondientes máquinas virtuales que actúan como una única unidad. A medida que vamos añadiendo hosts a un cluster, los recursos de estos nuevos hosts pasan a integrar lo que conocemos como pool de recursos del cluster, haciendo una bolsa única y conjunta de capacidad de computación. El cluster es objeto donde se configuran cuatro funcionalidades importantes de vSphere que veremos más adelante. HA (Alta disponibilidad), DRS (Distributed resource scheduler), EVC (Enhanced vMotion Compatibility) y VSAN (Virtual SAN).

Pregunta de examen VCP5

Un cluster puede contener máximo de:

  • 32 Hosts.
  • 4000VMs.
  • 512 VMs por host.
  • 2048 VMs encendidas por datastore.

Hosts

Los hosts, como ya hemos visto, son los servidores que hemos instalado con ESXi y que sirven para virtualizar cargas de trabajo a modo de máquinas virtuales.

Pregunta de examen VCP5

Un host puede tener como máximo

  • 320 CPUs lógicas disponibles (incluyendo hyperthreading en procesadores Intel)
  • 16 nodos NUMA
  • 512 máquinas virtuales
  • 4096 vCPUs asignadas a VMs
  • 32 vCPUs por core

Resource Pools

Los Pools de Recursos (Resource Pools) son un conjunto de capacidades de memoria y CPU de que disponen los hosts o clusters en vSphere. Los Resource Pools se utilizan con dos fines:

  • Priorizar la utilización de recursos en momentos de contención
  • Limitar el consumo de recursos de un conjunto de máquinas virtuales haya o no contención.

Los Resource Pools NO SON una forma de organizar máquinas virtuales.

Pregunta de examen VCP5

Un Resource Pool puede contener un máximo de:

  • 1024 objetos
  • 8 niveles de jerarquía
  • 1600 resource pools por host
  • 1600 resource pools por cluster

Datastores

Los datastores son la representación del almacenamiento disponible en nuestra plataforma vSphere. Un datastore es un espacio disponible para almacenar máquinas virtuales y los ficheros asociados a ellas. Como vimos en capítulos anteriores, un datastore puede estar conectado mediante FC (FiberChannel) o una red IP (NFS o iSCSI) o incluso ser un disco local del host. Sin embargo, de cara a esxi, todos los datastores son iguales, sin importar la tecnología que haya por detras para conectarlos al host. La existencia del concepto de datastore es esto precisamente, una capa que unifica todos los almacenamientos para presentarlos por igual al host. Los datastores también pueden agruparse en clusters como veremos posteriormente.

Pregunta de examen VCP5

  • Un host puede tener máximo 2048 virtual disks

iSCSI

  • 256 LUNS por servidor de almacenamiento
  • 4 HBAs iSCSI, que usen un máximo de 8 tarjetas.
  • 1024 caminos (paths) hasta el almacenamiento iSCSI usando multipath.
  • 8 caminos a una LUN única
  • 64 targets iSCSI en las HBA de Gbit
  • 128 targets iSCSI en las HBA de 10Gbit
  • 256 targets iSCSI con la iniciadora iSCSI por software

NFS

  • 256 Mounts NFS

FiberChannel

  • 256 LUNS por almacenamiento FC
  • 64TB por LUN
  • LUN id maximo 255
  • 32 paths a una LUN
  • 1024 paths totales
  • 8 HBAs de cualquier tipo
  • 16 puertos en esas HBAs
  • 256 targets por HBA

FCoE

  • 4 adaptadores software FCoE

VMFS

  • 64TB por volumen
  • 256 volumenes por host.
  • 64 hosts por volumen
  • 2048 VMs encendidas en un volumen único VMFS
  • 128 operaciones de vMotion concurrentes por volumen VMFS

VMFS5

  • 62TB Tamaño Maximo de RDM (Raw Device Mapping) virtual
  • 64TB Tamaño máximo de RDM físico
  • 1MB Tamaño de bloque VMFS5 nativo. Si se ha actualizado desde VMFS3, hereda el tamaño de bloque original.
  • 62TB Tamaño de archivo máximo.
  • 130690 Número aproximado máximo de ficheros por volumen

VMFS3

  • 2TB menos 512bytes Tamaño máximo de RDM virtual y físico
  • 8MB de tamaño de bloque
  • 256GB de tamaño de archivo usando bloques de 1MB
  • 512GB de tamaño de archivo usando bloques de 2MB
  • 1TB de tamaño máximo de archivo usando bloques de 4MB
  • 2TB menos 512bytes de tamaño máximo de archivo usando bloques de 8MB
  • 30720 archivos aproximadamente por volumen.

Networks

Las redes son el conjunto de tarjetas de red que agregamos a nuestras máquinas virtuales para dotarlas de conectividad de red, así como los vSphere Distributed Switches (switches distribuidos) a los que se conectan. Veremos más adelante lo que son los switches distribuidos, pero puntualizaremos que dos máquinas virtuales están dentro de la misma Network si se encuentran conectadas al mismo PortGroup dentro de un mismo Distributed Switch, aunque éste comprenda varios hosts diferentes y las máquinas virtuales estén en ejecución en diferente host. Veremos los máximos de configuración cuando nos metamos más a fondo con las redes.

Pregunta de examen VCP5

Tarjetas fisicas en el host

  • 24 tarjetas 1gb Intel e1000e
  • 16 tarjetas 1gb Intel igb
  • 32 tarjetas 1gb Broadcom tg3
  • 16 tarjetas 1gb Broadcom bnx2
  • 8 tarjetas 10gb NeXen nx_nic
  • 8 tarjetas 10gb Serverengines be2net
  • 8 tarjetas 10gb Intel ixgbe
  • 8 tarjetas 10gb Broadcom bnx2x
  • Combinadas, 8 tarjetas 10gb y 4 de 1gb.
  • 4 puertos 40gb Mellanox mlx4_en

vSphere Switches

  • 4096 virtual network ports por host
  • 1016 puertos activos por host
  • 64 LAGS LACP por host
  • 32 Uplinks para LACP por host

vSphere Distributed Switch

  • 6500 puertos por Distributed switch en modo Static / Dynamic
  • 1016 puertos por Distributed Switch en modo Ephemeral
  • 60000 puertos en total por Distributed Switch
  • 60000 puertos de Distributed Switch por vCenter
  • 10000 Portgroups de Distributed Switch por vCenter del tipo Static / Dynamic
  • 1016 portgroups de Distributed Switch de tipo Ephemeral por vCenter
  • 128 Distributed Switches por vCenter
  • 16 Distributed Switches por host
  • 1000 hosts por Distributed Switch
  • 64 resource pools de red por Distributed Switch
  • 64 grupos LACP por Distributed Switch

vSphere Standard Switch

  • 512 puertos por cada Standard vSwitch
  • 1000 portgroups de Standard Switch por host

Folders

Los folders son carpetas para agregar de forma lógica objetos del mismo tipo. Así pues, podemos agregar maquinas virtuales bajo un nombre que nos resulte identificativo o incluso podemos anidar carpetas dentro de carpetas siempre que se mantenga la premisa de que contengan el mismo tipo de objetos. No se pueden mezclar carpetas de hosts con carpetas de maquinas virtuales por ejemplo. También son receptores de permisos. Podemos asignar permisos de forma específica a todo lo que esté contenido dentro de un folder. Los nuevos objetos que se vayan incorporando a esta carpeta heredarán los permisos aplicados a ella.

Virtual Machines

Las máquinas virtuales son contenedores dentro de los cuales ejecutamos un hardware virtualizado y en las que podemos instalar sistemas operativos.

Templates

Los templates o plantillas son un tipo especial de máquinas virtuales que está listo para ser clonado y replicado para crear nuevas máquinas virtuales. Un template no puede ser encendido, pero si clonado, por ejemplo. Los templates pueden ser convertidos con un solo click a máquinas virtuales para ser encendidos. Las máquinas virtuales han de estar apagadas para ser convertidas a template con otro par de clicks.

La operación de crear nuevas máquinas a partir de un template se denomina “Deploy from template” o “desplegar desde plantilla”. Esta operación clona el template como una nueva máquina virtual y nos da la posibilidad de personalizar diversos ajustes, como las configuraciones de red, nombre del host, etc si nuestro sistema operativo está soportado.

vApps

Las vApps son un conjunto de máquinas virtuales que se configuran para operar de forma conjunta. Se pueden establecer dependencias en el orden de encendido, por ejemplo, o distribuirlas de forma conjunta mediante un único archivo .ova

 

Configurando nuestro Datacenter vSphere

Hasta ahora hemos hecho tareas de instalación de ESXi, vCenter y hemos revisado algunos conceptos importantes a la hora de manejar una infraestructura virtualizada. Es hora de comenzar a practicar lo que hemos ido aprendiendo. Vamos a configurar la jerarquía de nuestro datacenter tal y como lo puse al comenzar esta entrada:

  • Datacenter virt.es
    • Cluster laboratorio
      • Hosts
        • esxi01.virt.es
        • esxi02.virt.es
        • esxi03.virt.es
    • Networks
      • Master Gestion
      • vMotion
      • FT
      • VSAN
    • Datastores
      • QNAP01-VM01
      • QNAP01-VM02

Conectar a vCenter

Vamos a intentar acostumbrarnos a utilizar todo lo posible el cliente web de vSphere, ya que es el que está destinado a permanecer en un futuro. Veremos que hay aún cosas que no pueden llevarse a cabo con este cliente. En esos casos concretos, utilizaremos el Cliente vSphere de Windows tradicional.

Para conectar a vSphere Web Client, abriremos un navegador y pondremos la siguiente direccion https://vcenter:9443/vsphere-client/

certificacion vcp

Lo primero que hemos de hacer tras aceptar los avisos de SSL es descargarnos el plugin de integración que puedes ver en la imagen. Es importante para utilizar la consola de las máquinas virtuales desde el navegador y poder conectar imagenes .ISO o desplegar máquinas virtuales que vienen en formato appliance .OVA / .OVF

Una vez hayamos instalado el plugin de integración, regresamos a la dirección https://vcenter:9443/vsphere-client/ y nos identificamos con el usuario Administrator@vsphere.local que creamos durante la instalación de vCenter.

certificacion vcp

Una vez hayamos hecho login nos encontraremos con esta pantalla. Es el panel principal de vSphere Web Client. En el podemos distinguir cinco áreas diferenciadas:

  1. Navegador
    Nos permite movernos por las diferentes áreas del inventario de vCenter.
  2. Contenido
    Nos muestra detalles del objeto que tenemos seleccionado.
  3. Búsqueda
    Nos permite buscar en el inventario de vCenter de forma rápida el objeto que deseemos, desde máquinas virtuales a portgroups, hosts, clusters, carpetas, etc…
  4. Información
    Se divide en tres contenedores que nos muestran la siguiente información:

    • Tareas
      Nos muestra el conjunto de tareas que se encuentran en ejecución.
    • Trabajo en curso
      Nos muestra una relación de trabajos que nos encontramos realizando o hemos dejado para realizar posteriormente.
    • Alarmas
      Nos muestra una relación de warnings o alertas que se encuentran activas en este momento.
  5. Mensajes de vCenter
    Nos muestra mensajes de información de vCenter, como por ejemplo licencias que van a caducar en el ejemplo.

certificacion vcp

Crear un Datacenter

Nuestro primer paso va a ser crear un datacenter en nuestro servidor vCenter. Ese datacenter se llamará virt.es, pero podemos darle el nombre que nos resulte más significativo para identificarlo. Una buena idea es llamarlo como la ubicación física de los hosts que incluiremos dentro.

Para crear el datacenter en vSphere, haremos click en el inventario en vCenter y a continuación en Datacenters.

certificacion vcp certificacion vcp

Una vez estemos dentro de datacenters, pulsaremos el botón de Create new datacenter y le daremos el nombre que hayamos elegido.

curso de VMware

curso de VMware

Añadir un Host a un Datacenter

Es hora de añadir nuestros tres hosts a este datacenter. Para ello, y sin salirnos de la ventana de contenido de Datacenters, pulsaremos el botón de Add a Host.

curso de VMware

La primera pantalla del asistente nos pedirá el hostname o dirección IP del nuevo host que vamos a añadir a nuestro Datacenter.

curso de VMware

El siguiente paso nos pedirá las credenciales del host (root y la contraseña que hubiésemos elegido durante la instalación). También nos pedirá, antes de proseguir, que validemos el certificado SSL auto firmado que presenta el host.

curso de VMware

El paso Host Summary nos informa de la versión de ESXi que tiene instalada el host así como el nombre del fabricante del hardware. En este caso, al tratarse de ESXi virtualizados, el fabricante aparece como VMware.

clusters VMware

En el momento de asignar la licencia, para nustro curso de VMware vamos a utilizar licencias de evaluación de VMware, que son las que vienen por defecto y nos permiten disfrutar durante 60 días de todas las funcionalidades de vSphere con el nivel de licenciamiento Enterprise Plus.

clusters VMware

El siguiente paso Nos pregunta si queremos activar el LockDown Mode. El LockDown Mode es una funcionalidad de seguridad de ESXi que desactiva los accesos directos mediante el cliente vSphere de Windows, para que el servidor ESXi solamente sea administrable mediante vCenter o el acceso físico por consola.

lockdown mode VMware

Finalmente se nos pedirá la ubicación donde queremos añadir este host. Aquí podríamos elegir un cluster, si tuviéramos alguno configurado. Lo dejaremos tal cual y repetiremos el procedimiento para el resto de hosts ESXi que vamos a utilizar en nuestro laboratorio durante este curso de VMware para la certificacion VCP.

clusters VMware

Podemos ver como las tareas se van ejecutando en el panel de tareas de la parte derecha de la pantalla.

clusters VMware

Clusters de vSphere

Como vimos anteriormente, el cluster es una entidad que agrupa hosts ESXi para crear un conjunto agregado de recursos y habilitar diversas funcionalidades de vSphere. Vamos a crear nuestro cluster llamado laboratorio, pero previamente vamos a aprender una serie de conceptos nuevos que pertenecen al ámbito de los clusters VMware.

¿Qué es EVC?

Te estarás preguntando ¿Qué es EVC? Bien, EVC es una funcionalidad de los clusters vSphere destinada al vMotion (migración en caliente de máquinas virtuales) que permite establecer una plantilla con el conjunto de instrucciones de CPU disponibles para los hosts de ese cluster. La utilidad de EVC es clara cuando juntamos hosts con diferentes generaciones de CPUs dentro de un cluster. Podemos tener hosts con CPU Xeon Sandy Bridge que tienen una serie de instrucciones disponibles en la CPU. Pasados un par de años, compramos otro servidor, con procesadores Xeon Ivy Bridge y lo queremos añadir al cluster. Para que las máquinas virtuales sean ejecutables dentro de cualquiera de los hosts de este cluster, deben tener disponibles el mismo juego de instrucciones en TODAS las CPUs en las que pueden ejecutarse. Al activar EVC con nivel Sandy Bridge, recortaremos las funcionalidades disponibles de los nuevos servidores físicos Ivy Bridge, pero podremos incluir estos últimos en un cluster previamente existente.

Es muy importante saber que EVC solo funciona dentro de un mismo fabricante. No podemos hacer vMotion desde un host AMD a uno Intel ni viceversa. La recomendación general es mantener los clusters siempre con el mismo tipo de procesadores, pero podemos juntar procesadores con un salto de generación entre ellos sin mucho problema. Si dispones de procesadores con un salto de dos o más generaciones entre ellos, es más conveniente separarlos en diferentes clusters para aprovechar mejor las nuevas funcionalidades que van apareciendo con la evolución de las familias de CPUs.

¿Qué es vMotion?

vMotion es la capacidad de mover una (o varias) máquinas virtuales encendidas desde un host físico a otro diferente sin necesidad de apagarlas ni planificar ninguna ventana de mantenimiento. Todo el proceso es transparente totalmente para el usuario y se realiza de la siguiente forma:

Copia inicial de la memoria RAM de la máquina origen a destino. En el momento de comenzar esta copia se comienzan a almacenar los cambios que se realizan en memoria RAM en el origen, para transferirlos en siguientes copias de menor tamaño. Cuando estas copias han terminado, se transfiere el estado y registros de CPU para esa máquina virtual desde el host de origen al destino y se suspende durante una fracción de tiempo la máquina virtual en el origen, para pasar a ejecutarse en el destino. Todo, la ejecución de programas, transferencias de red, etc, sigue funcionando sin enterarse de que ha pasado de un servidor físico a otro.

¿Qué es DRS?

DRS, o Distributed Resource Scheduler es una funcionalidad de vSphere que permite automatizar (o no) el reparto de carga entre los diferentes hosts de un cluster mediante la utilización de vMotion y la configuración de diferentes umbrales de agresividad a la hora de repartir la carga. DRS se ejecuta cada cinco minutos y analiza las cargas de trabajo de los diferentes hosts que componen un cluster. Si observa que el nivel de desigualdad de utilización es superior al que hemos establecido, invocará acciones de vMotion en el cluster para repartir esta carga y dejar el cluster lo más nivelado posible.

DRS permite además establecer una serie de reglas de afinidad o anti afinidad que nos permitirán asegurarnos de que una máquina virtual está separada en un host físico diferente de otra que desempeña el mismo rol, por ejemplo, para asegurarnos que no se nos cae todo de golpe con un único fallo de host físico. Veremos todas estas reglas más adelante.

Una característica extra de DRS es DPM, Distributed Power Management, que permite vaciar mediante vMotion hosts que no se necesitan para la carga de trabajo actual del cluster. Esto permite ahorro de energía al prescindir de servidores encendidos en periodos de poca utilización, como por ejemplo por las noches.

¿Qué es HA?

El concepto HA dentro de VMware se refiere a alta disponibilidad de máquinas virtuales. HA es una funcionalidad que actúa a nivel de cluster que permite que, en caso de fallo de un host, las máquinas afectadas (disponiendo de almacenamiento compartido visible por todos los otros hosts del cluster) se reinicie sola en otro host que haya sobrevivido a la caída. Podemos configurar VMware HA para que monitorice a más bajo nivel el comportamiento de la máquina virtual y la reinicie en caso de que, aunque su host no sufra contratiempos, el sistema operativo se cuelgue, por ejemplo.

¿Qué es VSAN?

VSAN es una tecnología de almacenamiento distribuido entre hosts ESXi que VMware ha presentado a finales de 2013. La idea detrás de VSAN es utilizar una mezcla de almacenamiento SSD y discos duros tradicionales instalados en servidores físicos separados para crear un cluster de almacenamiento con tolerancia a fallos y aceleración mediante tecnología Flash. Veremos en más detalle esta tecnología más adelante.

Crear un Cluster de vSphere

Vamos con la creación de nuestro cluster para el laboratorio del curso VMware para la certificacion VCP. Manteniéndonos en la misma ventana de propiedades de Datacenters, pulsaremos el botón de Create New Cluster.

clusters VMware

En la pantalla de creación del cluster tenemos opción de activar las siguientes funcionalidades de vSphere: DRS, HA, EVC y VSAN. De momento las dejaremos todas desactivadas.

clusters VMware

Volvamos a la página inicial del inventario y hagamos click sobre Clusters.

clusters VMware

 

Veremos que ya tenemos disponible nuestro nuevo y flamante cluster con una capacidad de… 0 Ghz. De poco nos va a servir este cluster si no tiene recursos, así que vamos a añadirle nuestros tres hosts.Para ello, pulsaremos el botón de Move Hosts Into Cluster.

clusters VMware

 

Ahora seleccionamos los hosts que vamos a incorporar a nuestro cluster y con pulsar OK, los hosts se comenzarán a agregar a nuestro cluster.

clusters VMware

Podremos ver como los recursos de los hosts se han incorporado a nuestro cluster laboratorio.

clusters VMware

Una pregunta de examen VCP es el máximo de hosts que permite un cluster vSphere. En la versión 5.5 es de 32 hosts. En vSphere 6 está previsto que sean 64.

Con esto terminamos el cuarto capítulo del curso de VMware para la certificacion VCP. En el siguiente capítulo agregaremos almacenamiento compartido a todos estos hosts y configuraremos VMkernels que nos permitirán activar las funcionalidades avanzadas como vMotion, etc. También habilitaremos funcionalidades extra en nuestro cluster laboratorio.

 

 

Curso de VMware 5.5 – Tipos de Almacenamiento

En este capítulo intermedio de nuestro curso de ayuda a la preparacion de la certificacion VCP de VMware vamos a ver más a fondo conceptos fundamentales para el resto de nuestro curso de vmware para preparar la certificacion VCP acerca del almacenamiento. No podemos continuar profundizando en el curso de VMware vSphere sin conocer al detalle como funciona el almacenamiento en estos entornos virtualizados.

Tipos de almacenamiento en VMware vSphere

Hasta ahora en el curso de VMware para preparar la certificacion VCP hemos visto que un host es el encargado de ejecutar máquinas virtuales. Pero estas máquinas virtuales han de estar almacenadas en algun tipo de medio físico. Diferenciaremos estos tipos de almacenamiento en tres:

  • Almacenamiento local o DAS
  • Almacenamiento NAS (Network Attached Storage)
  • Almacenamiento SAN (Storage Area Network)

En el mundo de la vitualización, se conocen los contenedores de datos de máquinas virtuales como Datastores (nombre común a los tres tipos de almacenamiento citados anteriormente).A continuación veremos una descripción más en detalle de cada uno de estos tipos de almacenamiento y su utilidad. Es fundamental para continuar con nuestro curso de VMware que no te quede ninguna duda con respecto a este capítulo.

Almacenamiento local (DAS) en vSphere

El almacenamiento local se refiere a los dispositivos de almacenamiento que tiene conectados directamente el host mediante una controladora de disco. Por ejemplo, en nuestro ordenador de sobremesa, el almacenamiento local es el disco duro (o discos duros, en plural) internos que tenemos dentro de la caja. En un portátil, sería el pequeño disco duro que lleva dentro de la carcasa. En un host ESXi, serán aquellos discos duros que tiene conectados mediante un controlador soportado. Por ejemplo, el almacenamiento conectado mediante USB no es utilizable por el host ESXi aunque esté conectado directamente mediante un cable.

Así pues, si tenemos un servidor actuando como host ESXi, con 4 discos SAS de 300GB conectados a una controladora RAID en ese mismo servidor, y configurados como dos RAID1, el almacenamiento local de ese host serán 2 volumenes de 300GB que ESXi interpretará como discos duros físicos, aunque entre medias la controladora esté duplicando la información a 4 discos realmente.

Dentro de estos discos locales, crearemos por lo general un datastore (o varios) que será el contenedor lógico de los datos de nuestras máquinas virtuales.

almacenamiento en vmware

Las ventajas del almacenamiento local son el menor coste y el menor coste de administración.

Las desventajas del almacenamiento local son que impone una gran cantidad de limitaciones en funciones avanzadas de vSphere como alta disponibilidad (HA) o DRS (entre otras).

Almacenamiento NAS en vSphere

El almacenamiento NAS, también conocido como almacenamiento en ficheros, es un tipo de almacenamiento conectado por red a los hosts ESXi utilizando protocolo NFS. En este caso, debemos disponer de un equipo remoto, conectado mediante una red IP y a ser posible sin enrutamientos de por medio, que es el responsable de servir los archivos de las máquinas virtuales a los hosts ESXi mediante el previamente citado protocolo Network File Sharing. Se trata del protocolo más sencillo para conectar almacenamiento compartido a hosts ESXi y en la actualidad dispone de casi todas las ventajas que ofrecen los protocolos SAN más avanzados en ESXi.

En esta configuración, en el host esxi indicamos la IP del servidor NFS remoto, así como la ruta del volumen compartido que queremos montar. Previamente, tendremos que haber autorizado en el servidor NFS a este host para acceder en modo lectura o lectura y escritura, ya que es el sistema de seguridad que maneja NFS. El volumen no ha de ser formateado ya que el ESXi accede directamente a archivos que se manejan en el sistema de archivos propio del servidor NFS.

Las ventajas del almacenamiento NAS son que ofrece todas las funcionalidades avanzadas de vSphere sin necesidad de invertir en equipamiento de Fibra Óptica. La configuración es sencilla y rápida y el rendimiento es casi igual al del almacenamiento SAN. Otra ventaja de NFS es que es menos sensible a la latencia que otros protocolos SAN.

Las desventajas del almacenamiento NAS son un peor escalado en entornos grandes, donde se necesitan agrupar máquinas virtuales en función de sus patrones de acceso o la velocidad de acceso es crítica. El tráfico de datos NFS no va cifrado, por lo que resulta más inseguro en entornos sensibles.

almacenamiento en vmware

Almacenamiento SAN en vSphere

El almacenamiento SAN, también conocido como almacenamiento por bloques, permite a los clientes conectados, en nuestro caso los hosts ESXi, acceder directamente a bloques de disco existentes en el servidor de almacenamiento. Es, por decirlo de una forma resumida, una forma de conectar mediante un cable de red o fibra óptica, discos duros que el host ESXi debe formatear y administrar a nivel más bajo que en el caso de NFS. Los hosts ESXi pueden montar almacenamiento SAN mediante uno (o varios) de los siguientes protocolos:

  • iSCSI
    Utilizando iSCSI podemos obtener las ventajas del almacenamiento con bloques (baja latencia, mayor rendimiento) de la mano de una red IP convencional. Ambos extremos han de disponer de permisos mutuos para que puedan comunicarse entre ellos. Además la conexión inicial puede ir autentificada mediante contraseña bidireccional. Esto, sin embargo, requiere recursos extra dedicados exclusivamente a la comunicación con el almacenamiento.
    En una configuración típica iSCSI intervienen varios elementos:

    • Iniciador: Es el componente del lado cliente que establece la conexión con el dispositivo de almacenamiento en bloques. Puede ser un componente software o una tarjeta HBA (Host Bus Adapter).
    • IQN: Es el identificador único de cada uno de los dos extremos de la comunicación iSCSI. Han de permitirse expresamente en ambos extremos.
    • CHAP: Challenge Handshake Authentication Protocol, es un protocolo de cifrado mediante clave compartida para establecer una comunicación de datos.
  • FiberChannel o FC
    Fiberchanel utiliza redes exclusivamente de fibra óptica, mediante unos switches especiales denominados Fabric, para conectar almacenamiento en bloques a los hosts, mediante la utilización de una tarjeta HBA en éstos últimos. En vez de tener IQN, en FiberChannel denominamos WWN (world wide name) y el acceso se hace mediante una tecnica llamada Lun Masking, que previene la visibilidad de los almacenamientos a determinados WWN.
  • FiberChannel over Ethernet o FCoE es un estandar reciente para ofrecer almacenamiento FiberChannel a través de redes Ethernet.

Todos estos tipos de almacenamiento tienen en común que lo que ofrecen es un espacio de datos que el host tiene que formatear utilizando el sistema de archivos propio de VMware, el VMFS. Es por esto, al disponer de acceso directo a disco, que se denomina almacenamiento en bloques, pues toda la lógica del almacenamiento de los datos se delega en el host ESXi. En la actualidad, el sistema de archivos VMFS va por la versión 5.60 y soporta todas las características propias de un sistema de archivos para cluster, utilizando un tamaño de bloque grande para un sistema de archivos, de 1 Mbyte por defecto.

Para añadir almacenamiento iSCSI en VMware seguiremos el siguiente procedimiento:

Añadir un iniciador iSCSI por software en nuestro host

almacenamiento en vmware

almacenamiento en vmware

Apuntamos el IQN del iniciador, para dar permisos en el servidor iSCSI a este host. Cada fabricante o proveedor de servidores iSCSI tiene una forma particular y diferente de configurar sus equipos o software, acude al manual de tu servidor iSCSI para dar permisos al IQN del iniciador iSCSI del host ESXi.

almacenamiento en vmware

Añadimos un nuevo target estático, indicando la IP del servidor iSCSI y el nombre IQN del target que hemos creado en el servidor iSCSI . Pulsamos en el botón CHAP y seleccionamos el usuario y contraseña que hemos elegido para validar esta conexión.

almacenamiento en vmware

Reescaneamos el HBA (Host Bus Adapter) para que busque nuevos dispositivos disponibles con los datos que le hemos proporcionado.

almacenamiento en vmware

Confirmamos que aparece el disco que esperamos

almacenamiento en vmware

Vamos al asistente de Add Storage, elegimos DISK/LUN y agregamos el disco iSCSI que acabamos de crear para el laboratorio del curso de VMware.

almacenamiento en vmware

almacenamiento en vmware

Se nos pedirá elegir el filesystem con el que se formateará el nuevo disco.

almacenamiento en vmware

Seguimos adelante con el asistente hasta el final y ya tendremos nuestro nuevo datastore disponible en esa LUN iSCSI.

almacenamiento en vmware

Thin Provisioning y Thick Provisioning

Hay dos conceptos importantes que debemos conocer como son el thin y thick provisioning.

En inglés, thin es delgado y thick es grueso. Estos términos, en almacenamiento, se refieren a la forma en que se dispone del espacio de disco.

Con Thin provisioning, podemos:

  • Crear un único (o varios) archivos que ocupen más espacio del que tenemos disponible en el datastore.
  • Conseguir que la suma del espacio máximo de los archivos de un datastore sea mayor que el espacio disponible en ese datastore.
  • Utilizar de una forma más eficiente el espacio disponible en disco.

Con Thick Provisioning, cuando creamos un archivo de N gigas, esos N gigas se reservan automáticamente para ese archivo.

Existen dos modalidades de Thick Provisioning. Lazy Zeroed y Eager Zeroed. Con Lazy Zeroed thick provisioning, el espacio se reserva, pero no se llena de ceros (0). Resulta una forma de provisionar espacio casi inmediata, aunque el espacio que va a tener ese archivo puede contener datos previos de archivos que se hayan borrado o movido. Con Eager Zeroed thick provisioning, TODO el espacio que vayamos a asignar a ese archivo o máquina virtual, se llena de ceros de forma inicial, asegurando que tenemos un espacio de disco limpio, pero ralentizando considerablemente el proceso de creación de la máquina virtual e impactando en diferente medida al almacenamiento que tiene que soportar todos esos gigas de escrituras.

A primera vista, thin provisioning parece la panacea, pero resulta problemático por cuatro motivos:

  • A nivel de costes, es muy atractivo leer que un datastore está al 80% cuando realmente tiene asignados un 300% del espacio que realmente tiene.
  • Maximiza la fragmentación de los archivos dentro del almacenamiento.
  • No es compatible con Fault Tolerance.
  • Las máquinas con thin provisioning tienen la capacidad de hacer que todas las máquinas de ese datastore se caigan por una escritura no controlada a disco (empezar a escribir logs de forma incontrolada cuando tienen disponible en la máquina virtual más espacio del que queda libre en el datastore). En esa situación, todas las máquinas quieren escribir bloques nuevos que creen que tienen disponibles, y se cuelgan al no ser posible encontrar donde por parte del almacenamiento.

Curso de VMware 5.5 – Instalar vCenter

Guia de Certificacion VCP – Instalación de vCenter para Windows y vCenter Server Appliance

Bienvenido al capítulo 2 de la guía de certificacion VCP. En este capítulo aprenderemos los siguientes conceptos necesarios para la obtencion de la certificacion VCP de VMware:

  • Identificar las diferentes versiones de vCenter y sus requisitos de funcionamiento.
  • Instalar vCenter Server para Windows y configurarlo.
  • Instalar vCenter Server Appliance y configurarlo.

vCenter Server es un componente fundamental de VMware vSphere y es utilizado para administrar hosts ESXi así como el inventario de recursos que los rodean. vCenter Server existe en dos formatos. Uno que puede ser instalado en versiones soportadas de Windows Server y otro denominado vCenter Server Appliance que es una máquina virtual preconfigurada, ejecutando SUSE Linux. Ambos proporcionan casi las mismas funcionalidades y no es necesario tener conocimientos de Linux para manejar vCenter Server Appliance. En este curso de VCP aprenderemos a instalar vCenter Server en un servidor Windows 2012, así como el vCenter Server Appliance.

Identificar las diferentes versiones de vCenter

En la versión 5.5 de vSphere existen tres versiones de vCenter:

  • vCenter Server Essentials.
  • vCenter Server Foundation.
  • vCenter Server Standard.

Todas estas versiones incluyen los siguientes componentes:

  • Management Service.
  • Database Server.
  • Inventory Service.
  • vSphere Web Client.
  • vCenter APIs and .NET Extensions.
  • vCenter Single Sign On.
  • vCenter Orchestrator.
  • vCenter Server Linked Mode.

vCenter Server Essentials

Se trata de una versión totalmente funcional de vCenter solo disponible cuando se adquiere un kit de licencias vSphere Essentials (Essentials normal y Essentials Plus). Está orientada a pequeños negocios con necesidades de virtualización. Su limitación principal es que solo puede gestionar hasta 3 hosts con hasta 2 cpus cada uno y que no pueden combinarse ni ser administrados de forma conjunta junto con otras ediciones de vSphere, es decir, no puedes integrar hosts con licenciamiento no Essentials en este vCenter.

vCenter Server Foundation

Es otra edición limitada de vCenter Server en la que puedes administrar hasta tres hosts máximo y en la que adquieres funcionalidades de forma independiente para ahorrar costes.

vCenter Standard Edition

Se trata de la edición completa sin limitaciones de vCenter Server. Las únicas restricciones que encontrarás en vCenter Server Standard son las limitaciones máximas del propio software, que van hasta el manejo de cientos de hosts y miles de máquinas virtuales. Puedes consultar los máximos de vCenter Server en el siguiente enlace http://www.vmware.com/pdf/vsphere5/r55/vsphere-55-configuration-maximums.pdf

Requisitos de instalación de vCenter Server

Requisitos de vCenter Server para Windows

  • Procesador de 64 bit Intel o AMD con 2 cores.
  • Sistema operativo soportado (Windows 2008 o Windows 2012, ambos de 64 bit)
  • DSN de 64 bit para vCenter Server y de 32 bit para Update Manager.
  • 12GB de RAM.
  • 100GB de disco para la instalación, con 40-60GB adicionales posteriormente.
  • Tarjeta de red Gigabit.

vCenter para Windows puede utilizar como base de datos MSSQL Express si es un despliegue pequeño de hasta 5 hosts o 50 VMs. Para despliegues mayores puede utilizar MSSQL Standard o superior o una base de datos externa Oracle.

La instalación de vCenter Server para Windows está soportada tanto si se hace en una máquina física como si se instala en una virtual.

Requisitos de vCenter Server Appliance (VCSA)

  • Procesador de 64 bit Intel o AMD con 2 cores.
  • 70GB de espacio en un datastore ESXi.
  • 8GB de RAM para despliegues mínimos, hasta 10 hosts y hasta 100 VMs.
  • 16GB de RAM para manejar entre 10 y 50 hosts o 100-1500 VMs.
  • 24GB de RAM para manejar entre 50 y 100 hosts o 1500-3000 VMs.
  • Tarjeta de red Gigabit.

vCenter Server Appliance puede utilizar como base de datos un vPostgres incluido en el propio Appliance o una base de datos externa Oracle para manejar hasta 400 hosts y 4000 VMs (dedicandole 32GB de RAM).

En ambos casos, es crítico dimensionar bien el tamaño de la base de datos y NO USAR los niveles de estadísticas superiores a 1 salvo para resolución de problemas. Tener miles de gráficas disponibles está bien, pero puede matar el rendimiento de la base de datos y y acabar afectando a vCenter. Volveremos a este tema de las estadísticas más adelante.

Instalar vCenter Server 5.5 para Windows

Lo primero que debemos descargar es la iso de vCenter de la web de VMware. Es gratuito para la evaluación de 60 dias. Para nuestro laboratorio de certificacion VCP no necesitamos una cantidad exagerada de hosts, así que la base de datos Microsoft SQL Server Express que viene con la ISO nos servirá de sobra.

Una vez hayamos descargado la iso de VMware (yo voy a usar una llamada VMware-VIMSetup-all-5.5.0-2183112-20140901-update02.iso) la grabamos a DVD, USB o la montamos directamente en Windows y ejecutamos el instalador que viene en el mismo.

 

Seleccionamos Simple Install y pulsamos el botón de Install. Esto lanzará de forma consecutiva los instaladores de vCenter Single Sign On, vSphere Web Client, vCenter Inventory Service y finalmente vCenter Server junto con vCenter Orchestrator. Recuerda que si pretendes usar vCenter en un entorno de producción de más de 5 hosts o 50 máquinas virtuales, DEBES usar una base de datos MSSQL Externa cuyo procedimiento de instalación te dejo enlazado.

instalar vcenter server para windows

Instalación de Single Sign On

Se nos pedirá que seleccionemos una interfaz de red (una IP realmente) en la que configurar los servicios

instalar vcenter server para windows

Realizará una validación previa antes de instalar Single Sign On

instalar vcenter server para windows

Ahora nos pedirá una contraseña para el ususario Administrator@vsphere.local. Guardala bien, será tu usuario posteriormente para todo. Los requerimientos de complejidad de la contraseña te harán elegir una contraseña complicada.

instalar vcenter server para windows

Debemos dar un nombre a nuestro “site” Se trata de un nombre por el que podremos identificar esta instancia de Single Sign On. Yo lo llamaré virt.es

instalar vcenter server para windows

Proseguimos con la instalación hasta que esta parte termine.

Instalación de vSphere Web Client

Lo primero que nos aparecerá al ir a instalar vSphere Web Client es una petición de confirmación de que el certificado SSL que usa nuestro Single Sign On es correcto. Lo aceptamos y la instalación seguirá adelante hasta terminar sin preguntarnos nada más.

instalar vcenter server para windows

Instalación de vCenter Inventory Service

La instalación de vCenter Inventory Service comienza de forma automática tras la instalación de vSphere Web Client y tampoco nos pedirá ningún dato en el transcurso de la misma.

Instalación de vCenter Server para Windows

El instalador de vCenter Server es el último que se ejecuta con el Simple Install y lo primero que nos preguntará es la licencia. Si no introducimos ninguna, vCenter se pondrá en modo evaluación con todas las funcionalidades disponibles.

instalar vcenter server para windows

A continuación se nos pregunta por la base de datos. Utilizaremos la SQL Server Express que viene con la ISO. Si vamos a hacer un despliegue para más de 5 hosts o 50 VMs, insisto una vez más en que debes usar una instancia de MSSQL Server Standard y crear base de datos, usuarios, permisos, esquema y dos DSN previamente.

instalar vcenter server para windows

Indicamos a vCenter que se ejecute con el usuario de Administrador

instalar vcenter server para windows

Normalmente en un despliegue en producción para un entorno grande, marcaremos la opción Increase available ephemeral ports. No lo necesitaremos para nuestro laboratorio a lo largo del curso de certificacion VCP.

instalar vcenter server para windows

La siguiente pantalla nos preguntará por el tamaño de nuestro inventario. Lo dejaremos en small, ya que no vamos a acercarnos ni a los 100 hosts ni a las 1000 máquinas virtuales a lo largo de nuestro curso de VMware vSphere.

instalar vcenter server para windows

Tras pasar de la encuesta de experiencia de uso, podemos pulsar el botón Install y se comenzará a instalar primero SQL Server, luego la base de datos de vCenter y finalmente los servicios de vCenter Server.

instalar vcenter server para windows

Instalación de vSphere Update Manager

Update Manager es el componente que se encarga de gestionar las actualizaciones en vSphere. El instalador nos preguntará lo primero de todo por las credenciales a utilizar para conectarse con vCenter Server.

instalar vcenter server para windows

Posteriormente nos preguntará por la base de datos a utilizar. Nosotros vamos a utilizar SQL Server 2008 Express. Ten presente que si instalas Update Manager usando un MSSQL Server externo o diferente al Express, Update manager NECESITA un DSN de 32 bit.

instalar vcenter server para windows

En las siguientes pantallas podemos recibir un aviso de poco espacio en disco. Para nuestro laboratorio de certificacion VCP nos servirá de sobra con el espacio que tenemos.

instalar vcenter server para windows

Instalación de vSphere ESXi Dump Collector

ESXi Dump collector se encargará de recoger volcados de memoria a través de la red cuando un host tiene problemas. La instalación nos preguntará en que modo queremos instalarlo. Para nuestro laboratorio, lo instalaremos integrado con vCenter

instalar vcenter server para windows

Una vez más, tendremos que proporcionar nuestras credenciales, confirmando que el certificado SSL es el que esperamos.

instalar vcenter server para windows

Podemos dejar el puerto por defecto y seleccionar una IP alcanzable en nuestra red para que el servicio escuche en ella.

Instalación de vSphere Syslog Collector

Syslog Collector centralizará los logs de nuestros hosts en un único equipo. (requiere configuración posterior en el lado de los hosts). Puedes aprender a configurar el envio de logs por red en ESXi en esta otra entrada.

Los pasos para la instalación son similares a los del Dump Collector y salvo las credenciales, podemos dejar todos los valores por defecto.

instalar vcenter server para windows

Instalación de vSphere Auto Deploy

vSphere Autodeploy es una funcionalidad avanzada de vSphere que permite arrancar los hosts ESXi directamente desde la red y configurarlos cada vez que arrancan. Está pensado para entornos muy grandes y automatizados y convierte a vCenter en un componente muy sensible a proteger en caso de un apagón y altera los planes de contingencia ante desastres. Más adelante, casi al final del curso de certificación VCP veremos más sobre Autodeploy. Aceptamos los valores por defecto de la instalación.

instalar vcenter server para windows

Aqui termina la parte referente a la instalación de vCenter Server para Windows de nuestro curso de vmware. En la siguiente parte, vamos a realizar una instalación de vCenter Server Appliance

Instalar vCenter Server Appliance 5.5

vCenter Server Appliance es una versión alternativa de vCenter Server que va cogiendo peso e importancia en las últimas versiones de vSphere. Se trata de un appliance con SUSE Linux (no es necesario tener conocimiento de Linux para usarlo, aunque si vendrá bien alguna vez) que se despliega únicamente en forma de máquina virtual dentro de un host ESXi ya existente.

Para instalar vCenter Server Appliance en nuestro laboratorio de certificacion VCP, debemos descargar primero la imagen del Appliance. Se trata de un archivo con extensión OVA que contiene todo lo necesario para ser desplegado desde el vSphere Client de Windows. Yo usare la versión VMware-vCenter-Server-Appliance-5.5.0.20200-2183109_OVF10.ova

Una vez descargado el .OVA de la web de VMware en modo evaluación, abriremos el cliente vSphere Client de Windows y seleccionaremos el host donde queremos desplegar la maquina virtual y buscaremos en el menú File, Deploy OVF Template

instalar vcenter server appliance

Buscaremos el archivo .OVA

instalar vcenter server appliance

Continuaremos hasta la pantalla de selección de almacenamiento. En mi caso tengo varios almacenamientos, tanto locales como en red. Tu puedes instalarlo en un disco local de tu ESXi.

instalar vcenter server appliance

Se nos pedirá que seleccionemos un portgroup al que conectar la red del vCenter Server Appliance. Seleccionaremos uno adecuado para que este vCenter pueda tener visibilidad con el resto de hosts ESXi del entorno.

curso vmware

Seleccionaremos Power on after deployment y pulsaremos el botón Finish.

instalar vcenter server appliance

Una vez se haya terminado de desplegar y el primr arranque (tarda unos minutos), veremos en la consola de VCSA una pantalla similar a esta. En ella nos indica la ip que debemos visitar para empezar a configurar VCSA. Si no disponemos de DHCP en nuestra red, veremos una pantalla de configuración de red previamente.

instalar vcenter server appliance

La configuración de VCSA se hace de forma íntegra mediante navegador web accediendo a la direccion https://ip_de_vcsa:5480/ El usuario inicial para conectarse a VCSA es rootvmware

instalar vcenter server appliance

Tras aceptar la licencia de uso, lo primero que haremos (en mi caso al menos) es ponerle una dirección IP fija, y a comentamos previamente que está entre las mejores prácticas el uso de direccionamiento ip fijo para los hosts y servicios de vSphere, sobre todo vCenter. Para configurar la ip fija, cancelaremos el asistente antes de nada, tal y como lo indica en el punto Configure Options.

instalar vcenter server appliance

Vamos a Network, Address y seleccionamos direccionamiento IPv4 estático, momento en el que cambiará el menú para pedirnos todos los datos necesarios dentro de nuestra red.

instalar vcenter server appliance

Una vez lo tengamos todo rellenado, pulsaremos el botón Save Settings. Ten presente que si has puesto una IP diferente, tendrás que cambiar la dirección del navegador, ya que la ip original no seguirá siendo válida.

instalar vcenter server appliance

Volvemos a hacer login con root / vmware en la nueva IP de nuestro VCSA y lanzaremos manualmente el Asistente de Configuración haciendo click en el botón indicado en la captura de pantalla.

instalar vcenter server appliance

Elegiremos configuración personalizada para revisar todas las opciones que nos ofrece el asistente.

instalar vcenter server appliance

En VCSA solo podemos optar por usar la base de datos vPostgres integrada, o utilizar Oracle, que permite alcanzar mayor número de hosts y VMs. En nuestro caso nos quedaremos con la integrada, así que dejamos la opción embedded.

instalar vcenter server appliance

Single Sign On es un producto que puede instalarse conjuntamente con vCenter o en un equipo separado. En la siguiente pantalla del asistente nos permite seleccionar si vamos a usar un Single Sign On externo o el incorporado en VCSA. En nuestro curso de VMware vamos a utilizar la opción embedded. Configuraremos una contraseña para el usuario Administrator@vsphere.local y la recordaremos muy bien 🙂

instalar vcenter server appliance

Si fuesemos a utilizar autenticación con Active Directory, daríamos aquí los datos de dominio y usuario Administrador. No es el caso en nuestro curso de VMware así que seguiremos para adelante.

instalar vcenter server appliance

La sincronización horaria es MUY IMPORTANTE como ya dijimos antes. Hay bastantes cosas que pueden ir mal si los relojes de nuestra infraestructura vSphere no están sincronizados, por lo que debemos en todo momento intentar que tanto los hosts como máquinas virtuales, como servidores externos auxiliares estén todos con la misma hora. La mejor de las opciones es siempre el uso de NTP, y en caso de no estár disponible, mediante VMware tools.

instalar vcenter server appliance

Con este último paso, el asistente ya nos ha preguntado toda la información que necesitaba y puede comenzar a configurar los servicios.

instalar vcenter server appliance

Una vez se hayan completado todos los pasos, cerraremos el asistente y realizaremos un par de cambios adicionales en la web de configuración de VCSA:

instalar vcenter server appliance

Cambiaremos la contraseña de Administrador (root) de VCSA, la que acabamos de usar para acceder a https://ip_de_vcsa:5480/

Cambiaremos el número de días de caducidad de esta contraseña. En nuestro caso, desactivaremos la caducidad de esta contraseña, directamente.

instalar vcenter server appliance

Por último, a mi siempre me gusta reiniciar VCSA tras el asistente de inicio. Podemos reiniciarlo directamente desde la web de configuración en System > Reboot

instalar vcenter server appliance

Con esto termina el capítulo de instalación y configuración de vCenter de nuestro curso de VMware orientado a la certificación VCP. En el siguiente capítulo repasaremos o aprenderemos una serie de conceptos importantes sobre almacenamiento y redes necesarios para nuestros siguientes ejercicios.

 

 

 

Curso de VMware 5.5 – Instalar ESXi

Documentacion util durante este curso de VMware

Aqui te dejo un enlace a la documentación de vSphere que puede ser (y será) realmente útil en tu proceso de aprendizaje hacia la certificacion VCP.
Tambien te dejo un enlace al blueprint del examen VCP, donde se especifican los objetivos y requisitos de conocimiento para presentarse y aprobar el examen de certificacion VCP.

Curso de VMware – Planificar, Instalar ESXi y Configurarlo

En este primer capítulo de la guía para la certificacion VCP aprenderemos:

  1. Requisitos de VMware ESXi
  2. Instalar ESXi y configurarlo.

Antes de comenzar con la guia de certificacion VCP es necesario aclarar una serie de conceptos básicos que iremos manejando a lo largo del curso. En posteriores comienzos de capítulos iremos ampliando nuevos conceptos básicos según se vayan utilizando.

  • Host: Es el servidor físico donde vamos a instalar ESXi. El contenedor físico de las máquinas virtuales.
  • Guest: Cada una de las máquinas virtuales que se ejecutan dentro de un host.
  • NIC: Tarjeta de red. Es acrónimo de Network Interface Card. vmnic es el nombre que se da a las tarjetas de red de VMware.
  • LUN: Logical Unit Number, se trata de un contenedor de información en almacenamiento compartido con tecnología SAN (Fiber Channel o iSCSI)
  • DHCP: Protocolo de asignación dinámica de direcciones IP

Requisitos de VMware ESXi

Para conseguir instalar ESXi en un equipo, necesitamos que cumpla como mínimo con los siguientes requisitos:

  • Al menos 1 CPU de 64 bit SOPORTADA.
  • Al menos 2 cores.
  • Al menos 4 GB de RAM.
  • Al menos 1 tarjeta de red Gigabit o 10Gbe SOPORTADA.
  • Al menos una controladora de disco soportada para el almacenamiento local
  • Un dispositivo de arranque con un tamaño mínimo de 1GB.
  • Soporte de las instrucciones LAHF y SAHF en la CPU (Load AH from Flags y Store AH into Flags)
  • Soporte del bit NX/XD en la CPU. Que esta opción esté activada en la BIOS.
  • Soporte de instrucciones de virtualización en la CPU. En Intel, VT-x, en AMD RVI.
  • 5.2GB de espacio en LUN si arrancamos desde almacenamiento SAN.

Instalar ESXi

Para instalar ESXi 5.5 debemos como primer paso descarganos la iso de vmware.com. La iso que voy a utilizar para esta guía es VMware-VMvisor-Installer-201410001-2143827.x86_64.iso y es descargable de forma gratuita al registrarse en la web de VMware.

Conectate con una consola (monitor y teclado) al servidor donde vas a instalar ESXi. Yo lo instalaré dentro de mi host de laboratorio, como máquina virtual dentro de otra máquina virtual. Es lo que se conoce como nested esxi o esxi anidado.

Una vez hayas grabado la iso de ESXi a un CD o a un Pendrive, conéctala al servidor y arranca desde ella. Cada servidor tiene su forma de arrancar desde CD / USB y está fuera del ámbito de este curso para la certificacion VCP entrar en particularidades de cada fabricante de hardware. Consulta el manual del fabricante para más información.

Una vez haya arrancado la ISO, se te presentará la siguiente pantalla informándote de que vas a comenzar la instalación (Pulsar ENTER):

instalar esxi

A continuación deberás el acuerdo de licencia (Pulsar F11)

curso de vmware - instalar esxi

En la siguiente pantalla se te preguntará dónde quieres instalar ESXi. En mi caso es el primer disco de 4GB disponible. Los demás los usaremos más adelante para VSAN. Seleccionamos el correcto (se marca en amarillo) y pulsamos ENTER.

curso de vmware - instalar esxi

A continuación deberás elegir el idioma de tu teclado. Esto es importante para poner la contraseña en caso de que incluya símbolos o caracteres no alfanuméricos. Selecciona Spanish y pulsa ENTER.

curso de vmware - instalar esxi

Introduce una contraseña para el host ESXi. La longitud mínima es de 7 caracteres. Después, tras verificar que la has escrito correctamente tecleándola de nuevo en el renglón inferior, pulsa ENTER.

curso de vmware - instalar esxi

El siguiente paso verificará que tu equipo cumple los requisitos mínimos para la instalación, si se encuentra algún problema verás un mensaje similar al siguiente, en el que indica que las instrucciones de virtualización VT-x no están habilitadas en la BIOS. ¿Recuerdas que era un requisito de instalación? Si usas esxi anidado, puedes activarlo de la siguiente manera: Seleccionas la VM con el ESXi, Edit Settings, Pestaña Options, CPU / MMU Virtualization, opción de abajo del todo. Si no sabes lo que es esxi anidado, ignora esto último.

curso de vmware - instalar esxi

Se te pedirá confirmación antes de instalar ESXi en el disco que has seleccionado anteriormente, ya que la instalación borra todo el contenido que había en esos discos anteriormente y los reparticionará. Pulsamos F11

curso de vmware - instalar esxi

El instalador tiene un indicador de progreso y tarda unos cuantos minutos, dependiendo sobre todo de la velocidad del almacenamiento al que estamos escribiendo. Es posible que a veces parezca que se detenga, pero normalmente tarda entre 5 y 20 minutos en instalarse.

curso de vmware - instalar esxi

Cuando haya terminado, se nos presentará un diálogo indicando que se va a reiniciar el equipo. Pulsamos ENTER para reiniciar.

curso de vmware - instalar esxi

Una vez haya terminado de reiniciarse el host, intentará obtener IP mediante DHCP. Esto lo hará un poco menos cómodo de manejar y susceptible de cambios de IP no controlados. VMware recomienda utilizar IPs estáticas para los hosts ESXi así que vamos a proceder con la configuración de la red de gestión.

curso de vmware - configurar esxi

Pulsa F2 para acceder a Direct Console User Interface (DCUI). Es el sistema de menús de gestión básica de ESXi. Podrás acceder a él tras teclear tu contraseña. El usuario es root.

curso de vmware - configurar esxi

A continuación nos dirigimos al menú Configure Management Network y seleccionamos Network Adapters para asegurarnos de que la tarjeta de red usada para administración es la que queremos. Este paso es opcional e innecesario si solo tenemos una tarjeta de red (no recomendado).

curso de vmware - configurar esxi

curso de vmware - configurar esxi

Después, vamos a IP Configuration y elegimos la opción Set static IP address and network configuration, introduciendo los parámetros que queramos

curso de vmware - configurar esxi

A continuación, iremos a DNS Configuration e introduciremos los valores que necesitemos dentro de nuestra red. Disponer de resolución DNS directa como inversa es muy recomendable y necesario para algunas tareas. Configurar un servidor DNS interno queda fuera del alcance de este curso, pero más adelante veremos algunas formas de prescindir del DNS dentro del vCenter.

curso de vmware - configurar esxi

Por último, iremos a Custom DNS Suffixes para introducir el nombre de dominio dns que vamos a utilizar para nuestra infraestructura. Para mi laboratorio uso el dominio virt.es, usa el que prefieras.

curso de vmware - configurar esxi

Ahora pulsaremos la tecla ESC y diremos que queremos aplicar los cambios pulsando Y.

curso de vmware - configurar esxi

Podremos ver como nuestro host ESXi comienza a responder a ping…

curso de vmware - configurar esxi

Para tu información, para todos los ejercicios que haremos a lo largo de este curso, he creado 3 hosts ESXi diferentes. Hay que estar familiarizado con ellos así que te dejo una relación de los mismos:

  • esxi01.virt.es – 192.168.1.11
  • esxi02.virt.es – 192.168.1.12
  • esxi03.virt.es – 192.168.1.13

Instalar el vSphere Client

Una de las paradojas de las últimas versiones de vSphere es que puede administrarse desde web mediante el vCenter, que a su vez está disponible como una máquina virtual (VCSA, vCenter Appliance). Sin embargo, la herramienta básica de gestión para desplegar vCenter sigue siendo un cliente de Windows.

Para instalar el cliente de Windows de vSphere, iremos a https://IP_DE_TU_ESXi y una vez allí haremos click en “Download vSphere Client

curso de vmware - instalar cliente esxi

Tras instalarlo como cualquier otro programa, lo abriremos y veremos el siguiente diálogo

curso de vmware - instalar cliente esxi

Una vez introducidos los datos del host ESXi, daremos a login

Cuando nos salga el siguiente aviso sobre los certificados SSL, debemos decir que los aceptamos y marcar la casilla para que ignore esto en un futuro. Los certificados SSL que estamos utilizando son auto firmados y por eso nos avisa de que no son seguros. Para la mayoría de entornos, esto no nos supone un problema.

curso de vmware - instalar cliente esxi

Una vez conectados, el cliente nos recordará que estamos en modo Evaluación. Esto quiere decir que durante 60 días vamos a disponer de la totalidad de funcionalidades de vSphere, tal y como serían si tuviésemos una versión licenciada Enterprise Plus. Ten cuidado con esto, ya que una vez la evaluación termina, el host se desconectará del vCenter y perderemos estas funcionalidades. NO USES EL MODO EVALUACIÓN PARA HOSTS EN PRODUCCIÓN.

curso de vmware - instalar cliente esxi

Configurar NTP en ESXi

Es el momento de configurar la hora. ¿Por qué es tan importante la hora en un host ESXi? Porque muchas de las funcionalidades de vSphere requieren que los hosts y demás componentes de la plataforma estén sincronizados casi al segundo.

Seleccionaremos la pestaña Configuration del cliente vSphere y haremos click en Time Configuration

curso de vmware - instalar esxi

Ahora pulsaremos en Properties, Botón Options y en General, seleccionaremos Start and stop with host.

curso de vmware - instalar esxi

En NTP Settings, pulsaremos el botón Add e introduciremos un servidor de hora conocido. Si no sabes ninguno, puedes probar a usar pool.ntp.org. Marcamos Restart NTP service to apply changes y damos al botón de OK.

curso de vmware - instalar esxi

Marcamos por último NTP Client Enabled y pulsamos OK

curso de vmware - instalar esxi

Mientras la hora aparezca en color rojo, no estará sincronizada. No he podido obtener una captura de la hora sin sincronizar, pero es un dato a conocer.

Configurar el acceso SSH a ESXi

Otra de las cosas útiles que podremos hacer en ESXi tras la instalación es habilitar el acceso por SSH. Podemos hacerlo desde la DCUI (Direct Console User Interface) o desde el cliente vSphere. Vamos a ver como se hace de ambas maneras.

Para habilitar el acceso SSH via DCUI, haremos login con F2 como hicimos inicialmente para configurar la red de gestión e iremos a Troubleshooting Options.

curso de vmware - configurar esxi

Una vez estemos en Troubleshooting Options, seleccionaremos Enable SSH para habilitar el acceso SSH.

curso de vmware - configurar esxi

Este acceso nos será útil si queremos realizar resolución de problemas más avanzada o trabajar con esxcli. esxcli no es un objetivo de la certificacion VCP, sino más bien de VCAP, por lo que no será tratado en este curso.

Si preferimos utilizar el cliente vSphere de Windows para habilitar el SSH en ESXi, deberemos ir a la pestaña Configuration, Security Profile, Services, Properties

curso de vmware - configurar esxi

Una vez allí, seleccionaremos SSH y pulsaremos el botón Options, para seleccionar luego la opción Start and stop with host y pulsar OK

curso de vmware - configurar esxi

Habilitar, configurar y deshabilitar Hyperthreading en hosts ESXi Intel

Hyperthreading es una tecnología de Intel que permite, en determinadas circunstancias, obtener un hilo adicional de procesamiento por cada core. En la práctica no supone una mejora de rendimiento del doble, y en algunos casos específicos, puede hasta penalizar el rendimiento del host. Por ello, debemos saber como habilitarlo y deshabilitarlo.

Para habilitarlo o deshabilitarlo, iremos a la pestaña de configuración en el cliente vSphere y, dentro del panel de Hardware, pulsaremos en Processors, para posteriormente hacer click en Properties.

curso de vmware - configurar esxi

Te recomiendo utilizarlo salvo en casos específicos en los que tengas que analizar un problema extraño de rendimiento de las CPUs. Por lo general el Hyperthreading suele aportar un 30% de beneficio en rendimiento de CPU global.

Configurar las opciones de rendimiento y ahorro de energía en VMware ESXi

Este apartado, al que mucha gente no presta demasiada atención, sirve para configurar el balance entre consumo de energía y rendimiento que queremos obtener de nuestro host ESXi. Dependiendo de como configuremos estas opciones, el host consumirá más energía, ofreciendo mayor rendimiento, o consumirá menos, rebajando la potencia general del host. Para seleccionar una de las opciones de ahorro de energía, nos dirigiremos a la pestaña Configuration, Power Management, Properties. Elige la opción que mas te interese para tu entorno.

curso de vmware - configurar esxi

Ajuste de valores avanzados de configuración en ESXi

En este apartado aprenderemos a ajustar valores avanzados de ESXi, otro requisito para el examen de certificacion VCP. Vamos a ajustar el modo en que se comparten paginas de memoria idénticas entre máquinas virtuales. Sin entrar en mucho detalle, aprenderemos a realizar ajustes avanzados en un host esxi con este valor. Si quieres más detalles puedes visitar el post sobre TPS, comparticion de memoria entre máquinas virtuales en ESXi.

Para ajustar valores avanzados en el host ESXi, iremos a la pestaña Configuration, Panel Software, Advanced Settings. El valor que vamos a ajustar se encuentra en la rama Mem del arbol, y se llama Mem.AllocGuestLargePage. Pondremos el valor a 0 y pulsaremos OK. Este ajuste en concreto puede necesitar que reiniciemos el host, hagámoslo antes de continuar.

curso de vmware - configurar esxi

Licenciar un host ESXi

IMPORTANTE, para el laboratorio de aprendizaje para la certificacion VCP es importante dejar el modo evaluación, por lo que no debemos asignar una licencia gratuita. Sin embargo, es objetivo de la certificacion VCP saber asignar licencias a un host, directamente y a través de vCenter. Veremos ahora como asignarla directamente y en capítulos posteriores como hacerlo desde vCenter.

Para asignar una licencia a un host VMware ESXi, deberemos ir, dentro del cliente vSphere de Windows, a la pestaña Configuration, dentro del panel Software, haremos click en Licensed Features y finalmente haremos click en Edit.

curso de vmware - configurar esxi

Para asignar la licencia, haremos click en el botón Enter Key e introduciremos el código de licencia.

curso de vmware - configurar esxi

No te olvides de repetir el procedimiento y volver a asignar la licencia de evaluación para poder tener todas las funcionalidades activas.

curso de vmware - configurar esxi

Agregar almacenamiento en ESXi

Nuestro host de momento no tiene ningún tipo de almacenamiento, ni local (propio del servidor) ni compartido (en red). Estaría bien que le diesemos acceso a un disco local al menos para poder comenzar a hacer cosas.

Iremos a la pestaña de Configuración, en la zona Hardware seleccionaremos Storage y haremos click en Add Storage.

curso de vmware - configurar esxi

Seleccionaremos Disk/LUN y elegiremos un disco local de nuestro equipo. Es importante que nos aseguremos de que se puede borrar todo el contenido del mismo.

Seleccionaremos el sistema de ficheros VMFS-5

curso de vmware - configurar esxi

Seguimos para adelante con los menús hasta que se nos pregunte el nombre del datastore. Si vas a manejar mucho almacenamiento local, te recomiendo que los identifiques de la forma que puedes ver en la captura. De esa forma sabes a que equipo pertenece, que es local, si es hdd o ssd, y su tamaño.

curso de vmware - configurar esxi

Una vez terminemos el asistente, dispondremos de un datastore local en el que poder crear máquinas virtuales más adelante.

Creación de puertos de red

Nuestras máquinas virtuales van a necesitar red para comunicarse entre sí y con el exterior (si lo necesitan). En VMware podemos distinguir tres elementos básicos de red. vmKernels, vSwitches y Portgroups.

Los vSwitches son el equivalente a los switches de red normales, mientras que los portgroups son agrupaciones de “puertos de red” de máquinas virtuales que a su vez se conectan a vSwitches.

  • Un vSwitch está compuesto por uno o varios uplinks, que corresponden con las tarjetas de red físicas del host.
  • Un Portgroup está compuesto por el conjunto de puertos virtuales que conectan las máquinas virtuales a él.
  • Un vmkernel es un puerto de uso exclusivo del host ESXi que realiza cualquier actividad de entrada o salida de datos (almacenamiento, vmotion, fault tolerance, vsan, etc)

Para crear nuestro primer Portgroup, iremos a Configuration, Networking, Add Networking y seleccionaremos crear un Virtual Machine Portgroup.

curso de vmware - configurar esxi

Podremos seleccionar un vSwitch ya existente (El de gestión que usamos para controlar la máquina) o crear uno nuevo con otra tarjeta de red diferente.

curso de vmware - configurar esxi

Finalmente seleccionamos un nombre para el Portgroup y ya estará listo para que le conectemos máquinas virtuales.

curso de vmware - configurar esxi

Para los laboratorios de este curso de VMware será necesario que dispongas de TRES hosts ESXi diferentes. Realiza el ejercicio de configurar tú mismo los otros dos hosts.

Este es el final del primer capítulo de nuestro curso de VMware. Tras aprender a instalar ESXi, el siguiente paso es aprender a instalar vCenter en el capítulo 02.