Microsoft, su tecnología y yo

El Blog de David Cervigón (Microsoft)

March, 2011

  • Teaming e Hyper-V

    Hola

    El asunto del NIC Teaming en Hyper-V es un tema recurrente. ¿Como se monta y configura?. ¿Cuando esta o no recomendado?. ¿Esta soportado por Microsoft?.

    Por qué necesitamos el Teaming

    Estas son las razones por las que se suele plantear la necesidad de establecer Teams de tarjetas de red:

    • Por si falla la una NIC física. Hay quien incluso quiere establecer Teams entre NIC de diferentes fabricantes para mayor tolerancia a fallos. Mi opinión al respecto es que, por esta razón, no merece la pena. Si falla físicamente una NIC es muy posible que el Team no te arregle los problemas colaterales, y con mucha probabilidad, los posibles problemas en drivers/firmware etc. en lugar de ser eliminados por el software de teaming, se verán amplificados. Además la tendencia en las NICs para servidores es que adaptadores multipuerto, que se presentan como interfaces independientes de cara al sistema operativo. La probabilidad de que un hipotético fallo afecte a un único puerto es aún más baja. Si además los puertos de las diferentes NICs están enchufadas al mismo switch de red no ganaremos ningún tipo de tolerancia ante un posible problema ajeno a las propias tarjetas. En estas condiciones, bajo mi punto de vista, el teaming supone mas riesgo que beneficio real.
    • Por si falla el camino: Esto incluye los elementos de red a los que las NICs están conectadas, en particular cables y switches. No queremos confiar en un único latiguillo de red, ni en un único switch de red. Es más, queremos tener la posibilidad de dar mantenimiento a dichos elementos sin afectar a la conectividad de las cargas de trabajo. Por ejemplo, reemplazarlos o actualizar firmwares y versiones de sistema operativo de los switches. Teams entre puertos de diferentes interfaces que conectan a diferentes elementos de red es lo más adecuado para entornos en los que la tolerancia a fallos es un requisito.
    • Agregación de ancho de banda y balanceo de carga. En el mundo de las interfaces a 1GB esta ha sido la forma de aumentar el ancho de banda para cargas de trabajo que así lo requieran, como podría ser el caso de las NICs correspondientes a un switch virtual. Sin embargo la tendencia parece ser ir hacia interfaces multipuerto de 10Gb, que pueden virtualizarse o particionarse a voluntad, obteniéndose anchos de banda personalizados.

    En los documentos que se enlazan más abajo encontrareis descripciones mucho más puristas de todo esto. Simplemente se trata de dejar claro que el Teaming es una pieza que puede ser un requisito fundamental en muchos escenarios.

    Soportabilidad

    La soportabilidad del NIC Teaming por parte de Microsoft esta muy bien resumida en estos dos artículos

    Since Network Adapter Teaming is only provided by Hardware Vendors, Microsoft does not provide any support for this technology thru Microsoft Product Support Services. As a result, Microsoft may ask that you temporarily disable or remove Network Adapter Teaming software when troubleshooting issues where the teaming software is suspect.
    If the problem is resolved by the removal of Network Adapter Teaming software, then further assistance must be obtained thru the Hardware Vendor.

    • Network adapter teaming and server clustering: http://support.microsoft.com/kb/254101/en-us

      In Windows Server 2008 and Windows Server 2008 R2, there are no restrictions that are associated with NIC Teaming and the Failover Clustering feature. In Windows Server 2008, the new Microsoft Failover Cluster Virtual Adapter is compatible with NIC Teaming and allows it to be used on any network interface in a Failover Cluster.

    Me he permitido subrayar las partes más relevantes. La pila de red de Windows no implementa los mecanismos de agregación de ancho de banda y tolerancia a fallos mencionadas más arriba, y como veremos más adelante, es necesario utilizar el software especifico del fabricante de la tarjeta o de los propios servidores para introducirlos por encima de los drives de las tarjetas de red. Por tanto, Microsoft no puede hacerse responsable en primera instancia del proceso de diagnostico y resolución de problemas que pudieran localizarse en esta capa de software. Estaríamos exactamente en la misma situación si habláramos de los propios drivers de las NICs, o de los drivers y software de configuración de las tarjetas gráficas, o cualquier otra pieza de software que resulte ajeno a Microsoft. Como ya hemos explicado en otras ocasiones, para Microsoft “soportado” significa exactamente que puedes llamar a Microsoft Product Support Services y esperar un compromiso de alcanzar una solución sobre un asunto determinado. En este sentido, “no soportado” no significa en absoluto ni que no funcione, ni que no se recomiende, ni que se vaya a negar la ayuda, ni que el fabricante en particular no lo soporte oficialmente por su lado.

    Dejémoslo por tanto en que el Teaming está soportado para Windows y por tanto para Hyper-V, pero no directamente por Microsoft PSS.

    Configuración

    En Hyper-V, la pila de red y la pila de almacenamiento se configuran en la partición padre. Por tanto, la configuración del Teaming de red, al igual que el multipath en el caso del almacenamiento, se gestionan exactamente igual que en un servidor físico. En la grandísima mayoría de las situaciones nos encontraremos con NICs basadas en chipset de Intel o Broadcom. Con la salvedad de HP, que implementa su propia herramienta de creación y gestión de los teams, la mayoría del resto de fabricantes se basan en las herramientas que proveen directamente los propios fabricantes del chipset.

    Aquí os dejo los principales enlaces para instalar y configurar los Teams:

    • HP Network Configuration Utility:
    • Intel ProSet / ANS:
    • Broadcom BACS / BASP:

    Cuando tiene sentido el Teaming en entornos de Hyper-V

    Nos plantearemos el uso de NIC Teaming en Hyper-V en aquellas redes en las que no se implementen ya mecanismos de tolerancia a fallos por otra vía y en las que podamos necesitar agregar ancho de banda o implementar políticas de balanceo, en función de lo que hemos mencionado más arriba.

    • iSCSI. Si nuestro almacenamiento es iSCSI y queremos utilizar más de una tarjeta, lo adecuado es usar los mecanismos de multipathing propios del sistema de almacenamiento. Sin Teaming
    • Red de HeartBeat del cluster: En 2008/2008R2 podemos especificar diferentes redes para transportar el heartbeat, y los requerimientos de ancho de banda son mínimos. Sin necesidad de Teaming
    • Red de Live Migration: Requerimos alto ancho de banda, solamente cuando se realicen Live Migrations. Se pueden especificar diferentes redes para ello, con lo que tenemos tolerancia a fallos. Puede justificarse Teaming
    • Red de CSVs: Es la red con menor métrica del cluster. Puede tener altos consumos de ancho de banda de manera puntual. Puede justificarse Teaming
    • Red Pública de gestión: Necesitamos tolerancia a fallos, y un ancho de banda razonable para la administración del servidor. Puede ser necesario Teaming
    • Virtual Switches: Requerimos tanto altos anchos de banda como tolerancia a fallos . Puede ser necesario Teaming

    En el siguiente documento tenéis la recomendación oficial para hosts con cuatro o menos interfaces de red.

    Sin embargo, los escenarios pueden complicarse si necesitamos dedicar ciertas NICs a dar servicio en determinadas VLANs. El software de Teaming puede crear NICs virtuales sobre las interfaces físicas reales, las cuales a su vez pueden convertirse en Switches virtuales, pudiéndose sacar además vNICs virtuales para la partición padre. Todo esto es factible y funciona. Pero conviene sentarse a pensar si realmente tiene sentido, y recordar que lo sencillo funciona y se opera mejor que lo complicado.

    Saludos

    David Cervigón

  • Diseño de los Cluster Shared Volumes (CSV) en Hyper-V

    Hola

    El diseño del almacenamiento para soluciones de virtualización es un tema ciertamente importante, y muy a menudo recibimos consultas acerca de cómo llevar a cabo el diseño de los “datastores” que albergarán máquinas virtuales, y en particular sobre los Cluster Shared Volumes. Tratamos el tema del funcionamiento y otras consideraciones de los CSVs en este post:

    y esta es una buena guía al respecto:

    Recapitulando algunos puntos de estos artículos, y añadiendo algunos otros:

    Límites

    • Un CSV es un volumen normal de Windows, y la LUN subyacente servida desde el almacenamiento será como cualquier otra LUN que presentamos a un host Windows. Usaremos FC, iSCSI, FCoE, con MultiPath, y DSMs (Device Specific Modules) específicos en función del fabricante y modelo de la cabina.
    • Los límites máximos del tamaño de un CSV son exactamente los mismos que los de un volumen normal de Windows: 256 TB (menos 64KB Sonrisa). Por lo tanto el máximo tamaño de LUN que podemos servir desde el almacenamiento es 256 TB. Como de costumbre en estos casos, el límite está mucho más lejos de lo resulta realmente factible, práctico y razonable, pero siempre hay gente a la que le gusta comparar estas cosas.
    • El número máximo de CSVs por cluster es igual al numero máximo de volúmenes por host. Y no existe tal límite. Sin embargo si que hay un número máximo de LUNs por target y un numero máximo de LUNs por HBA, mas relacionados con los limites de las tecnologías de almacenamiento subyacentes que por el propio sistema operativo. Pero de nuevo, estos límites están más allá de lo que acabaremos usando en realidad.
    • El numero máximo de máquinas virtuales por CSV sería proporcional al numero máximo de ficheros por volumen, que es 4.294.967.295 (menos 1 fichero Sonrisa). Pongamos que cada VM son 10 ficheros (o 100 si queréis). Tampoco parece que haya mucho de qué preocuparse en este sentido.

    Rendimiento

    ¿Cuales son los parámetros que pueden afectar al rendimiento de un CSV?. Pues básicamente los mismos que afectan a cualquier volumen que usemos para almacenar datos, sea DAS, NAS o SAN, pero con la peculiaridad adicional de que cada una de las máquinas virtuales almacenadas en el mismo contribuirá con su propio patrón de IO. Este problema no es en realidad específico de los CSVs, sino de cualquier otro volumen que almacene varias máquinas virtuales. Sin embargo, en el caso de los CSVs, serán varios hosts los que estarán generando carga de trabajo sobre el sistema de almacenamiento subyacente de manera simultánea.

    Resumiendo, estas son cosas que afectan al rendimiento de un CSV.

    • Tipo de disco (SSD, FC, SAS, SATA)
    • Tipo de RAID y numero de discos que lo conforman. A mayor número, mejor rendimiento, pero los diferentes tipos de RAID afectan de diferente manera a las operaciones de lectura y/o escritura y sus latencias.
    • Virtualización del almacenamiento. Los conjuntos de discos físicos agrupados en los diferentes tipos de RAID, se suelen “particionar” en LUNs que podemos servir a diferentes hosts. Pueden decirte que tu volumen (CSV o no) esta puesto sobre un conjunto de muchos discos rapidísimos y que todo debería ir estupendamente, pero resulta que sobre ellos residen otras LUNs de otros servidores que pueden estarte restando rendimiento del teórico total.
    • Las controladoras HBAs, NICs, CNAs etc. Las encontraremos en los host y en los dispositivos de almacenamiento. Dan un cierto ancho de banda máximo en ambos extremos, que es conveniente conocer
    • Los “caminos”. En almacenamiento SAN, las comunicación con los dispositivos de almacenamiento se realiza a través del “caminos” de fibra o cobre que están interconectados entre si a través de switches más o menos dedicados o compartidos. Todo aquel que haya intentado ir a un gran centro comercial en la víspera de una fecha señalada sabrá que muchas veces el problema no es otro que el “SAN congestion” que te encuentras antes y después de conseguir el objeto deseado.
    • Los sistemas de almacenamiento. Hoy en día están compuestos por auténticos sistemas operativos diseñados a medida con funcionalidades para gestionar el almacenamiento cada vez más avanzadas, y que ofrecen diferentes posibilidades de escalabilidad y tolerancia a fallos.
    • Las caches. Las tenemos en todas partes. En los sistemas operativos, en las controladoras del servidor, en los dispositivos de la cabina, en los propios discos… . Es muy importante ser conscientes de que caches están actuando entre la petición del dato por parte de una aplicación y el medio físico donde está almacenado, y las posibilidades de optimización que tenemos en nuestra mano.
    • El sistema de archivos:
    • El problema del alineamiento de particiones es especialmente importante en entornos de virtualización.
    • Otro parámetro que tiene relevancia en el rendimiento de un volumen NTFS es el tamaño de bloque:

    http://msdn.microsoft.com/en-us/library/cc767961.aspx

    Choosing a cluster size. Choose a volume's cluster size based on the average type and size of file that the volume will store. Ideally, the volume cluster size is evenly divisible by the average file size (rounded to the nearest kilobyte). This ideal cluster size minimizes disk I/O transaction overhead and wasted disk space. For example, suppose you're creating a new NTFS volume that will store several files of about 6KB each in size. Format the volume with a 2KB cluster size, because the average file will fit evenly into three clusters. What if the average file size is about 16KB? In that case, a 4KB cluster size will provide the best performance, because it's evenly divisible into 16KB and requires only half the cluster allocations that the same file would require using 2KB clusters. Why not take this process one step further and use an 8KB or 16KB cluster size? These values are valid alternatives and might yield additional performance benefits; however, using cluster sizes greater than 4KB has several potentially negative side effects. For example, when you use cluster sizes larger than 4KB, disk-defragmentation utilities can't defragment the volume, you can't use NTFS file compression on the volume, and the amount of wasted disk space increases because user data files stored on the volume don't end evenly on cluster boundaries.

    Como regla general, debemos de pensar que la controladora del host va a leer o escribir los datos en el sistema de almacenamiento en bloques iguales al tamaño del Stripe Size subyacente, independientemente de lo que ocupe el dato. Por otro lado, en entornos virtualizados, con los tipos de datos que manejamos hoy en día, y en virtud del párrafo anterior, parece que tiene sentido formatear nuestros datastores y discos virtuales de datos con tamaños de bloque grandes. Por defecto, un volumen normal del orden de decenas de GB se formatea a 4KB en lugar de a 64K, que es el máximo en NTFS a fecha de hoy.

    ¿Cuantos CSVs por cluster, y cuantas VMs por CSV?

    Pues a la vista de todo lo anterior solo cabe una respuesta. Depende. Personalmente, creo que la respuesta acertada pasa por la estandarización, que nos obliga por necesidad a conocer y manejar los parámetros mencionados anteriormente. Esto, obviamente, deja la libertad de diseñar algo “ad-hoc” si la una solución específica lo requiere.

    • En los sistemas de almacenamiento:
    • Diferentes tipos de disco (por precio, rendimiento…).
    • Diferentes tamaños y parámetros de vRAIDs, agregados, etc. (por rendimiento, aprovechamiento del espacio…).
    • CSVs
    • Diferentes tamaños (p.e. 100 Gb, 250 Gb, 500 GB, 1TB). Tengamos en cuenta que un CSV grande dará el mismo rendimiento que 10 pequeños que sumaran la misma capacidad, si todos van a residir en el mismo contenedor del sistema de almacenamiento. Sin embargo, el tamaño del CSV (o de cualquier datastore) es la “cesta” que se nos puede caer en un momento dado, y de la que tendremos que planificar por ejemplo copias de seguridad y mecanismos de restauración. Recordemos que por la manera que tienen de funcionar los CSVs, incluso aunque hagamos copia de seguridad de una VM, estaremos afectando a las demás, ya que entrará en modo redirigido durante el tiempo que dure el snapshot VSS.
    • Diferentes tamaños de bloque NTFS. Lo normal en un CSV es que se almacenen máquinas virtuales que produzcan patrones de IO muy dispares. Como regla general es conveniente irse a tamaños de bloque grandes. Pero si vamos a usar cargas de trabajo con patrones de IO muy homogéneos, podría tener sentido afinar este valor.
    • VHDs
    • Diferentes tamaños y tipos de formato, en función de su uso, y, por supuesto, nada de VHDs de crecimiento dinámico.
    • Discos para sistema operativo: 10 GB, 20 Gb, 40 GB…
    • Discos para datos con diferentes tamaños acorde a los datos (los discos Pass-Through no aplican a los CSVs).

    Una vez establecido este catálogo, iremos presentando CSVs al cluster y llenándolos de máquinas virtuales bajo demanda. De esta forma lograremos trabajar con el almacenamiento de la manera más predecible y ordenada posible. Por ejemplo:

      • Crearemos los VHDs de arranque del sistema operativo de las máquinas virtuales en CSVs de tamaño medio, creados en arrays de discos con un rendimiento bajo, medio o alto en función de la criticidad de la VM.
      • Crearemos los VHDs con los datos de las aplicaciones sobre CSVs que residan en arrays de discos optimizados para esa carga de trabajo (%lectura vs. %escritura, %random vs. %secuencial, etc.), o sobre CSVs genéricos, si el rendimiento no es lo más importante.
      • Tenderemos a agrupar en el mismo CSV las VMs que tengan similares políticas de copia de seguridad.

    Por supuesto, hay otra manera de abordar el problema. Te dan una LUN de un cierto tamaño, conviertes el volumen en CSV y lo vas llenando hasta que reviente. Si usas discos de crecimiento dinámico, ten por seguro que te enterarás de cuando sucede eso, porque todas las VMs que tengan discos en ese CSV se habrán quedado en estado pausado. No hay problema, porque los CSVs se pueden agrandar en caliente, y siempre puedes hacerlo crecer (ampliando la LUN en la cabina, te vas al nodo que es el owner del CSV y extiendes el volumen con el Disk manager o Diskpart). Pero llegará el momento en que dará miedo ver una cesta tan rebosante, pediremos crear una nueva LUN, y vuelta a empezar. Y luego resultará que “todo va lento”, entre otras calamidades.

    Saludos

    David Cervigón

  • Windows Thin PC. Convierte tus PCs en Thin Clients

    Hola

    Se acaba de anunciar la disponibilidad de la CTP de Windows Thin PC, que se puede descargar de Microsoft Connect en este enlace:

    image

    WinTPC es la evolución de Windows Fundamentals for Legacy PCs (WFLP), un beneficio para clientes con Software Assurance, y mantiene por tanto su filosofía. Es una versión muy limitada de Windows, que consume por tanto  muy pocos recursos, y cuyo propósito es ser utilizado principalmente para conectarse a escritorios remotos basados en Remote Desktop Services o VDI. Si bien WFLP estaba basado en Windows XP, el principal cambio que se introduce en WinTPC es que está basado en Windows 7 Embedded Standard SP1, que es, precisamente, lo mismo que utilizarán los OEM para maquetar los Thin Clients basados en Windows que sacan al mercado. Obviamente esto incluye las novedades a nivel de protocolo incluidas en el SP1, es decir, RemoteFX, que podremos completar instalando los protocolos de nuestro principales partners en esta área, Citrix y Quest.

    Desde el punto de vista del licenciamiento, WinTP tiene una gran ventaja. Al ser un beneficio de Software Assurance, no es necesario adquirir la licencia VDA, ya que esta también va incluida como beneficio del mismo. Recordemos que la licencia VDA es necesaria para cualquier dispositivo que no este cubierto con SA para acceder a una infraestructura de VDI basada en Windows.

    El proceso de instalación está a medio camino entre lo que publique en este post (Virtualización Recreativa) y el de un Windows 7 “normal”. En las guías que os podéis descargar en Connect habla también de los componentes que incluye y como se puede automatizar el despliegue mediante el ya tradicional proceso generación de imágenes personalizadas de Windows mediante WAIK y MDT.

    Asi es la instalación manual, en un equipo con 4 GB de disco y 512 MB de RAM (y nos sobra):

    image image image image 

    image image image image

    Dos reinicios:

    image image image

    Creación de cuenta local y configuración inicial:

    image image image image

    image image image image

    El resultado:

    image

    Una vez llegados a este punto, solo nos queda definir personalización adicional y qué piezas adicionales de software necesitamos instalar para obtener una plataforma mínima sobre la que trabajar.

    Saludos

    David Cervigón

  • Novedades en System Center Virtual Machine Manager 2012 (Beta)

    Hola

    En este posts trataremos las principales novedades de Virtual Machine Manager 2012, con la cautela de estar hablando de una versión Beta para evaluación. La mejor lista oficial que he podido localizar es la que encontraréis en el apartado correspondiente del SCVMM 2012 TechCenter:

    VMM 2012 se posiciona como una de las principales herramientas de gestión del IaaS (Infraestructura como Servicio) o de la nube privada. Para ello se han reforzado algunos puntos que hasta hoy no estaban integrados de manera nativa en SCVMM 2008 R2.

    Gestión del Fabric

    Entendemos por Fabric (tejido) el conjunto de elementos que necesita una infraestructura de IT para funcionar. Esto comprende principalmente hosts, hypervisores, red y almacenamiento. Este pantallazo nos permite hacernos una idea de qué elementos se consideran y gestionan dentro de SCVMM 2012 como parte de ese “Fabric” general:

    image

    Es decir:

    • Hosts:
    • Servidores: VMM 2012 permite trabajar con Baseboard Management Controllers (BMC) utilizando IPMI, DCMI y SMASH (puede extenderse para usar también HP ILO2) para aprovisionar los hosts automáticamente usando como base diferentes perfiles.
    • Hypervisores: Hyper-V, XenServer y VMware

    image

      • Gestores de Hypervisores: VMM y vCenter. La gestión de VMware se sigue haciendo a través de vCenter, pero la de XenServer puede realizarse directamente sin necesidad de recurrir a XenCenter.
      • Dynamic y Power Optimizations para los clusteres: Hasta ahora, si queríamos que las máquinas virtuales se movieran automáticamente entre los diferentes hosts de un cluster en función de sus cargas de trabajo, necesitábamos la cooperación de System Center Operations Manager para habilitar la funcionalidad de los PRO Tips. Si bien esta integración sigue siendo posible a través de los nuevos Management Packs que incluye SCVMM 2012, ahora podemos especificar, sin necesidad de SCOM, políticas de balanceo de máquinas virtuales para los host de un cierto cluster en función de parámetros de CPU, Memoria, y throughput de red y almacenamiento.
    • Update Servers: En resumidas cuentas, servidores de Windows Update Services (WSUS) como fuente primaria de la distribución de actualizaciones, que podemos aplicar en particular a los hosts de virtualización.
    • PXE Servers: Servidores de Windows Deployment Services, como fuente primaria de la distribución de imágenes de sistemas operativos, y para el despliegue del propio servidor físico donde se habilitará Hyper-V
    • Library Servers: Servidores de ficheros donde almacenar todos los “ingredientes” que necesitamos para crear máquinas virtuales. Plantillas, ISOs, scripts y algunas otras cosas nuevas que mencionaremos más abajo.
    • Red: Redes lógicas, pools de MAC addresses, balanceadores de red y plantillas para IPs virtuales. La principal novedad radica en la posibilidad de integrarse con balanceadores de red de otros fabricantes a través de providers específicos. En estos momentos tenemos la posibilidad de descargarnos para probar los correspondientes a Citrix NetScaler y Big-IP F5. Podemos ver un ejemplo de esto en el blog de Daniel Matey, que ha estado probando un NetScaler VPX para Hyper-V cortesía de nuestros colegas de Citrix
    • Almacenamiento: SCVMM 2012 puede interactuar con diferentes sistemas de almacenamiento presentes en nuestra SAN, de nuevo mediante providers específicos. En este caso se utiliza Storage Management Initiative – Specification (SMI-S), que como dice el artículo de la Wikipedia está basado en CIM (Common Information Model) y Web-Based Enterprise Management (WBEM). Actualmente se han probado los correspondientes a NetApp, EMC y HP EVA. En este último caso, la pila SMI-S se incluye en la propia interfaz de gestión de las cabinas, HP StorageWorks CommandView. Daniel Matey y yo lo hemos intentado por activa y por pasiva con una Lefthand VSA, pese a ver los puertos necesarios abiertos tanto en la cabina como en el hosts donde se instala SAN/IQ. Esperamos ver pronto a las familas Lefthand y 3PAR listadas aquí. Lo probaremos en cuanto podamos con una NetApp, pero mientras tanto aquí hay un ejemplo con una EVA, acompañado de una buena explicación de la gestión del almacenamiento en SCVMM 2012:

    Seguridad

    El repositorio primario de seguridad de SCVMM continua siendo como es natural el Directorio Activo. Sin embargo, para gestionar aspectos que suelen quedar fuera del mismo como puedan ser la red, los hosts y el almacenamiento, SCVMM 2012 hereda la idea de las “Run as Accounts” y “Run as Profiles” que podemos encontrar por ejemplo en Operations Manager.

    image

    Nubes, Máquinas Virtuales y Servicios

    Una de las cosas más sorprendentes que incluye SCVMM 2012 es su integración con Server App-V (documentación descargable aquí). Tal y como sucede con App-V en los clientes y servidores de Remote Desktop, la idea es desacoplar las aplicaciones de servidor del sistema operativo para poderlas desplegar de manera independiente.

    Simplificando mucho (para mucha más información: Deploying Virtual Machines and Services in a Private Cloud in VMM 2012):

    • Maquina Virtual: No hay mucho que explicar sobre ellas a estas alturas. Sin  embargo, a la hora de generarlas a partir de plantillas nos damos cuenta de que además de los parámetros para la instalación y configuración desatendida de Windows y de sus funcionalidades y características, podemos desplegar aplicaciones virtuales, aplicaciones basadas en SQL, e incluso el propio SQL.

    image image

    • Servicio: Conjunto de todos los elementos que conforman un cierto servicio prestado por IT, con sus interrelaciones. Por supuesto eso incluye máquinas virtuales, balanceadores, redes, IPs, etc. Todo un mundo a explorar a partir de un lienzo en blanco.

    image image

    • Cloud: Una “partición” del “Fabric”: Un subconjunto de redes lógicas, balanceadores, almacenamiento sobre el que podremos albergar las máquinas virtuales y servicios que hayamos definido. Se puede delegar.

    image

    image image

    El papel de la Librería

    En SCVMM 2012 la librería tienen un papel aún más relevante, y como sucede en la versión actual, se compone de una serie de carpetas de red y de la información que se almacena en la propia base de datos. En un golpe de vista se observa todo lo que podemos almacenar aquí para que lo podamos combinar a voluntad a la hora de crear nuestras VMs, Servicios y Clouds:

    image

    Y en particular, en la parte de Application Frameworks, encontraremos los binarios necesarios para utilizar Server App-V:

    image

    ¿Y el portal de autoservicio?

    Por ahora, no ha sufrido apenas cambios con respecto al existente en SCVMM 2008 R2 SP1. Sin embargo cabe esperar que las funcionalidades del SSP 2.0, desarrollado como un “Solution Accelerator” y no como parte del propio producto, se integren con todo lo mencionado anteriormente.

    Para cerrar, recordaros que todo lo que sabemos por ahora está documentado aquí:

    Saludos

    David Cervigón

  • Descarga e Instalación de System Center Virtual Machine Manager 2012 Beta

    Hola

    Durante la semana pasada se celebró en Las Vegas la Microsoft Management Summit 2011, un evento anual centrado en las tecnologías de gestión. Durante el mismo se anunciaron las fechas de la próxima ola de productos de System Center, la disponibilidad de algunas Betas, y en particular la de System Center Virtual Machine Manager 2012, que ya se puede descargar desde aquí:

    Podéis leer aquí el resto de anuncios que se realizaron durante el evento:

    Vamos a ver el proceso de instalación de SCVMM 2012. Antes de nada, como de costumbre, toda la información técnica relevante a prerrequisitos, instalación, configuración y uso la tenéis disponible en el TechCenter correspondiente en Microsoft TechNet:

    Al menos en la beta, los prerrequisitos han cambiado con respecto a SCVMM 2008 R2:

    • No se incluyen los binarios del Windows Automated Intallation Kit 2.0 (WAIK), por lo que debe instalarse previamente
    • No se incluye SLQ Express. En el caso de SCVMM 2012 se requiere SQL 2008 o SQL 2008 R2 en sus versiones Standard, Enterprise o Datacenter
    • Tampoco se instalan automáticamente los roles de IIS necesarios para el portal de autoservicio

    Tras descargar y descomprimir el fichero de descarga, lanzamos la instalación.

    image

    Tras el acuerdo de licencia, podemos elegir los componentes que queremos instalar. El propio servidor, la consola (obligatoria en el servidor) y el portal de autoservicio

    image image image image

    Además de los prerrequisitos arriba mencionados, se nos piden al menos 4 GB de RAM

     image image

    La instancia de SQL donde crear la base de datos

     image image

    Los puertos que se utilizarán por defecto son configurables, lo que nos viene bien para controlar las comunicaciones en los firewalls

     image

    La parte correspondiente al portal de autoservicio. Podríamos usar un equipo remoto con IIS:

    image

    Creamos la primera carpeta compartida para la librería y finalizamos la instalación, que no debería llevar más allá de unos minutos:

    image image image image

    Y ya tenemos un servidor con VMM 2012 Beta listo para ser utilizado:

    image

    En un primer golpe de vista, además de los cambios en la interfaz, vemos algunas cosas diferentes a lo que tenemos hoy en la consola de VMM 2008 R2. Servicios, Nubes, Fabrics…

    Pronto más.

    Saludos

    David Cervigón

  • Poster de Arquitectura de Remote Desktop Services

    Hola

    Otro poster de arquitectura reciente, en esta ocasión relativo a los Remote Desktop Services de Windows server 2008 R2 SP1

    image

    Se ha incluido un apartado dedicado a RemoteFX, que es la novedad introducida en SP1

    image

    Se puede descargar de aquí:

    Saludos

    David Cervigón

  • Poster de Arquitectura de Hyper-V 2008 R2 SP1

    Hola

    El otro día lo mencionaba Tomás en un comentario del post sobre Guías de implementación de Hyper-V y Arquitecturas de Referencia. No había tenido tiempo de descargarlo e ir ampliando las diferentes zonas para ver en detalle. La verdad es que esta muy bien para discusiones de pizarra, o para ilustrar presentaciones.

    Según las propiedades del fichero tiene aproximadamente 1 m de ancho por 64 cm de alto, así es que la captura de pantalla vale de poco salvo para adornar.

    image

    Lo podéis descargar de aquí:

    Saludos

    David Cervigón

  • Disponible para descarga System Center Virtual Machine Manager 2008 R2 SP1

    Hola

    Como suele ser habitual, unas semanas después de anunciarse un Service Pack que afecta a funcionalidades de Hyper-V como es el caso del SP1 de Windows Server 2008 R2 y Windows 7, ya tenemos disponible para descarga la versión de Virtual Machine Manager que contempla los cambios introducidos, en este caso la Memoria Dinámica y RemoteFX, además de las actualizaciones que han ido apareciendo meses atrás.

    Esta disponible en TechNet/MSDN y en la web para clientes con licenciamiento por volumen.

    image

    Además también podemos descargar la versión de evaluación desde aquí:

    La actualización de una infraestructura de virtualización que esté siendo gestionada por System Center Virtual Machine Manager 2008 R2 a esta versión con el SP1 ya integrado no puede resultar más sencilla. Basta con lanzar el ejecutable de instalación allí donde tengamos instalados uno o varios componentes de SCVMM 2008 R2. El proceso los detectará y los actualizará automáticamente. Posteriormente observaremos que todos los hosts gestionados aparecen en la consola en estado de alerta, y tendremos habilitada la posibilidad de actualizarles el agente de manera remota y centralizada.

    También ha sido actualizada la información del TechCenter dedicado a SCVMM, que podéis encontrar aquí:

    Saludos

    David Cervigón

  • Guías de implementación de Hyper-V y Arquitecturas de Referencia

    Hola

    He estado recopilando una serie de guías de implementación de Hyper-V tanto de Microsoft como de algunos fabricantes que ofrecen arquitecturas de referencia de sus sistemas para las tecnologías de virtualización de Microsoft. Obviamente no es la lista completa, y sobre todo la parte de almacenamiento se queda corta y la trataremos más adelante. Muchas de ellas están solamente a algunos clics de http://www.microsoft.com/virtualization/en/us/private-cloud.aspx

    Saludos

    David Cervigón