Abro este apartado para ir comentando en él las cuestiones que se van planteando sobre este tema durante la Gira TechNet y que no podemos responder en el momento, o las preguntas que nos vayáis haciendo llegar y que complementan las FAQ publicadas en la Web del producto:
Esto es lo que teníamos apuntado hasta el momento:
1.- Reporte unificado del estado de equipos y parches en un escenario con jerarquía, ya sea padre/hijo o con servidores de réplica.
Hoy por hoy, cada servidor de WSUS mantiene su propia base de datos SQL en el que almacena los informes. Por tanto, cada una de ellas ofrece una vista exclusiva de los clientes registrados contra ese servidor.
Existe un ejemplo de una herramienta desarrollada sobre las API de WSUS que recolecta la información de reporting todos los servidores y la consolida. Está también el código fuente por lo que puede ser fácilmente modificada a voluntad. Aquí tenéis los enlaces:
Readme: http://download.microsoft.com/download/8/1/a/81a41962-cff5-4396-a567-0d2f87d8f67a/Readme.htm
WSUSRollupSample: http://download.microsoft.com/download/e/a/c/eac857ba-3051-472b-a8a3-0b4179660dd8/WSUSRollupSample.EXE
2.- ¿Que sucede si elimino un producto, una categoría o un idioma en las opciones de sincronización?. ¿Se elimina el contenido correspondiente del repositorio de ficheros del disco duro del servidor WSUS?
Elegir no sincronizar determinados idiomas, productos o categorías no supone el borrado del contenido del disco ni eliminar la información que hay contenida al respecto en base de datos.
Si teneis cualquier duda o comentario (o solución) sobre Windows Server Update Services, no dudeis en agregar un comentario a este post.
Hola
Hoy contestamos dos preguntas que han salido de forma recurrente durante los eventos en los que hemos estado hablando de Windows Server Update Services (WSUS).
1.- La primera es cómo se puede eliminar el contenido correspondiente a idiomas o productos de los que se haya decidido no continuar sincronizando, o el correspondiente a actualizaciones reemplazadas o que por alguna razón no vayan a ser necesarias (es decir, las que marquemos como "No Aceptada", o "Declined" en inglés, en su estado de aprobación). Para ello usaremos la herramienta WSUSUtil.exe (incluida en la carpeta "Archivos de Programa\Update Services\Tools") y la Server Diagnostic Tool, cuya descripción y sintaxis podéis consultar aqui.
NOTA: Antes de jugar con estas opciones en un servidor en producción, por favor, haced un backup completo del estado del servidor
a) Para eliminar las actualizaciones que no sean necesarias, bien por que hayan sido reemplazadas y estén aprobadas las actualizaciones que las reemplazan, bien porque sean para un producto que ya no utilizamos, bien porque por alguna razón ya no las necesitemos:
- Las buscamos usando la consola, las seleccionamos y cambiamos su estado de aprobación a "No Aceptada".
- Eliminamos los archivos correspondientes usando la Server Diagnostic Tool: WsusDebugTool.exe /Tool:PurgeUnnneededFiles
b) Para eliminar las aprobaciones en idiomas que ya no están seleccionados en las opciones de sincronización del servidor
- Listamos las aprobaciones que tenemos en estado inactivo: WSUSUtil.exe listinactiveapprovals
- Una vez revisado si el resultado del comando anterior es coherente con lo que nos proponemos hacer, eliminamos las aprobaciones inactivas. Antes de ejecutar este comando, es necesario parar el sitio de Admimistración de WSUS en la consola de IIS: WSUSUtil.exe deleteinactiveapprovals
- Por último, eliminamos los archivos correspondientes usando la Server Diagnostic Tool: WsusDebugTool.exe /Tool:PurgeUnnneededFiles
2.- ¿Se puede instalar WSUS en un controlador de Dominio?. Por poderse, se puede. No hay nada en la instalación del producto que lo impida, pero no esta recomendado por razones de rendimiento y seguridad. Por ejemplo, para administrar un servidor WSUS basta con agregar al usuario elegido al grupo local "Administradores de WSUS". Es muy posible que no queramos que ese usuario pertenezca a uno de los grupos del dominio que tienen permisos de inicio de sesión local en el servidor.
David Cervigón
Hace tiempo escribí acerca de un problema de Windows Vista a la hora de detectar dispositivos de almacenamiento masivo.
Empezaron a aparecer comentarios de gente que tenía el mismo problema, pero con otros tipos de dispositivos que no tenían nada que ver con los anteriores. No podía ser el mismo problema, pero no por ello dejaba de haberlo, por lo que decidi seguir la sugerencia de alguno de los comentarios y llamar directamente a Bill a ver qué es lo que está pasando.
Parece que el problema sucede al borrarse o corromperse el fichero %WINDIR%\inf\INFCACHE.1, precisamente durante la instalación de algún dispositivo no incluido en el producto. He leido por algún foro que se recomienda borrar este fichero en caso de problemas con la instalacion de dispositivos (ha sido un viejo truco desde los tiempos de Windows 95), pero definitivamente no es una buena idea en Windows Vista. Y no lo es porque Vista tiene un bug por el cual ese fichero no se regenera automáticamente como debería. Esto esta reportado en este artículo:
http://support.microsoft.com/kb/937187
Como se puede leer en el artículo, existe un parche que hay que solicitar a nuestros Servicios de Soporte (si alguien se anima a hacerlo, que pida mejor el del KB 940199, que reemplaza al anterior), y que será incluido en el Service Pack 1. Pero antes, puede probarse una solución sencilla, que consiste en renombrar este fichero y sustituirlo por el de un equipo semejante que funcione correctamente.
Si alguien se ve muy muy agobiado, le puedo facilitar el parche por correo, pero ya advierto que estando de Gira no va a poder ser de hoy para mañana.
Saludos.
Están las versiones x64 Standard, Enterprise y Datacenter, el Windows Automated Installation Kit 1.1 (WAIK) (x86, x64, ia64) y el Windows Server 2008 Multilingual User Interface Language Pack (x64)
En el próximo par de semanas irán apareciendo las demás ediciones, a saber:
Por cierto, hoy hemos visto y enseñado nuestro primer Hyper-V Server en una sesión en la oficina. Ya hablaremos de ello más adelante.
¿Se entiende ahora lo del avión? ¡Tenemos los binarios finales! ;-)
Saludos
Escribo esto porque cada vez es más frecuente recibir a través de este blog todo tipo de solicitudes de ayuda para recuperar la información de buzones de Hotmail correspondientes a cuentas presuntamente perdidas debido a contraseñas y preguntas clave "olvidadas". Y digo presuntamente y "olvidadas" porque justo esto es lo que intentaría hacer cualquier persona que quisiera acceder a la identidad de otra. Crearse una cuenta similar y solicitar amablemente, y por todos los dioses, que le ayudaran a "recuperar" la información ajena.
Por esa razón ningún empleado de Microsoft salvo los del equipo de soporte de Windows Live puede hacer nada por ayudarte. Así es que, por favor, no dejes comentarios aquí ni me envíes un correo solicitándome ayuda para recuperar tu contraseña de Hotmail, porque no puedo hacer nada más que intentar explicar cómo se debe acceder a dicho grupo. Ellos son los únicos que tienen potestad para prestar la ayuda correspondiente, y tomar las decisiones pertinentes tras estudiar el caso.
Este es el proceso que debes seguir si te encuentras en esta situación:
Yo poco más puedo hacer. Suerte en el proceso
Tino me refiere a un problema existente a la hora de pinchar ciertos dispositivos USB en Windows Vista. El sistema los reconoce como un "USB MASS STORAGE", pero dice no disponer de los drivers para el mismo. La solución que el ha encontrado consiste en forzar que los divers se busquen en la carpeta %systemroot%\system32\driverstore, con lo que la instalación del dispositivo termina correctamente.
Pues bien, buscando buscando resulta que es un problema reportado, que afecta a los dispositivos que requieren del driver Mf.sys (Multifuction Enumerator) para funcionar, ya que este no se extrae por defecto durante la instalación. Este fichero se encuentra en una carpeta que empieza por mf.inf_ y que se cuelga de %systemroot%\system32\driverstore\FileRepository, razón por lo que la solución mencionada funciona estupendamente.
Basta con copiarlo a la carpeta %systemroot%\system32\drivers para que el problema desaparezca. Todo esto esta en su correspondiente KB aqui.
Gracias Tino
Como veis, he movido el Post original a una nueva categoría para que sea más sencilla de manejar. Veamos las respuestas a vuestras preguntas:
1.- "Compruebe la configuración de su servidor. No se puede establecer contacto con al menos un componente de Update Services. Compruebe el estado del servidor y asegúrese de que Windows Server Update Services se esté ejecutando. Servicios que no están en ejecución: SelfUpdate"
Seguramente esto venga acompañado de un Evento 506 en el Visor de Sucesos, y de una entrada similar a esta en el log de IIS:
W3svc log errors: 2005-08-09 20:25:56 128.231.210.123 GET /selfupdate/iuident.cab - 80 - 128.231.210.123 - 403 6 0
El problema radicará seguramente en la configuración del directorio virtual correspondiente en IIS. Habría que comprobar las restricciones de IP y los permisos de ese directorio virtual (IUSR_MACHINENAME deberá poder acceder y tener derechos de inicio de sesión local). Resumiendo, el problema es de la configuración de IIS en lo tocante a los directorios virtuales que monta WSUS
2.- No se detectan las actualizaciones de Office
Lo más probable es que estemos hablando de una instalación Administrativa de Office. Por el momento, WSUS no es capaz de actualizar este tipo de instalaciones. También puede suceder que tengas un servicio de Office deshabilitado (Ose.exe). En este par de artículos están las opciones que podemos seguir para resolver la situación:
903773 No updates are displayed when you scan for updates by using Microsofthttp://support.microsoft.com/?id=903773
903774 Some Microsoft Office updates are not successfully installed on certainhttp://support.microsoft.com/?id=903774
3.- Ordenadores que no salen en los reportes de WSUS
La causa más frecuente de este problema es que los clientes hayan sido desplegados usando técnicas de clonación. En ese caso, hay unas claves del registro que serán comunes a todos los clientes. Una de ellas se llama y que se llama SUSClientID. Te imaginarás lo que pasa cuando el servidor recibe el estado de todos esos equipos con claves comunes... no los distingue.
La solución pasa por borrar esas ramas. Está todo documentado en:
903262 A Windows XP-based computer that was set up by using a Windows XP imagehttp://support.microsoft.com/?id=903262
4.- Esta pregunta nos la hicieron ayer en directo en Vigo al término de la presentación. ¿Es posible que los servidores de réplica no almacenen el contenido de las actualizaciones en local y que en su lugar redirijan a los clientes a descargarse las actualizaciones directamente de MIcrosoft Update?
Bien, cuando un servidor está en modo réplica, hereda parte de la configuración y opciones de administración del "servidor de arriba". Sin embargo seguimos teniendo libertad de especificar:
- Membresía de los equipos a los Target Groups. Aunque estos vienen predefinidos, tenemos libertad de distribuir los equipos que ataquen al servidor de réplica como queramos
- Agenda de sincronización y servidor Proxy a utilizar
- Por supuesto, opciones de monitorización y generación de informes
- Puede cambiarse la fuente desde la que se descargan las actualizaciones, que puede ser otro servidor que aquel del cual somos réplica.
Sin embargo, este último punto no implica que podamos cambiar la estrategia de almacenamiento de las actualizaciones, es decir, si las queremos descargar o dejar en Microsoft Update. Mientras estamos en modo réplica, no podemos especificar nada en este sentido y seguimos la directiva establecida en el servidor principal. Para más información, consultad la Guía de Operaciones de WSUS
Seguiremos contestando aquí las dudas que vayan surgiendo
Hace unos dias comentábamos por aqui la disponibilidad de la Beta 2 de WSUS 3.0, acompañada de alguna documentación. Aunque los más fácil hubiera sido reusar alguna de las máquinas virtuales que ya tenia con Windows Server 2003 R2 y WSUS 2.0 para actualizarlo, me he animado a probarlo sobre la también Beta 2 de Longhorn Server, montándolo todo desde el principio. Pongo aqui los pantallazos comentados del proceso de instalación, que he realizado vía Remote Desktop desde mi XP:
La descarga es el habitual ejecutable autodescomprimible que lanza el ejecutable de la instalación al final:
Lo primero que nos pregunta la instalacion es en que unidad y carpeta queremos llevar a cabo la instalación de WSUS. Es recomendable al menos tener 6 GB libres para almacenar la base de datos y las actualizaciones, pero esta cantidad puede crecer en función de la cantidad de productos e idiomas en los que vayamos a querer dar servicio a los clientes de la red. En mi caso la unidad elegida no dispone de tal espacio disponible, por lo que la instalación alerta explícitamente sobre este hecho.
Los siguientes pasos de la instalación es la configuración de la base de datos que se va a utilizar para almacenar toda la lógica de la solución y el sitio Web donde se configurará el servicio que utilizaran los clientes para obtener las actualizaciones disponibles y reportar su estado. En mi caso, ya que estoy usando Longhorn, WSUS 3.0 requiere tener instalado SQL 2005 SP1. En Windows Server 2003, o en Windows 2000, puede o bien usarse una instancia de SQL ya presente en el equipo o en otro servidor de la red, o si no el propio asistente instalará y configurara SQL Server 2005 Embedded Edition. Por otro lado, se nos da a elegir configurar el servicio Web en el Sitio Web Predeterminado en el puerto 80, o crear uno nuevo dedicado en el ya tradicional puerto 8530:
Tras estas opciones, se nos informa de los cambios que se van a realizar en función de las opciones elegidas y se lleva a cabo la copia de archivos y la configuración del sistema:
Una de las novedades de WSUS 3.0 es un asistente de configuración del servicio, que puede lanzarse justo después de la instalacién o en cualquier momento después a través de la consola basada en la MMC 3.0. La idea del asistente es configurar todos los parámetros necesarios para tener el servidor operativo, y que en WSUS 2.0 había que especificar en diferentes lugares de la consola.
Con este asistente podremos:
Una vez terminados todos estos pasos, el servidor WSUS 3.0 estará listo para dar servicio a los clientes. La nueva consola de administración nos permitirá administrar el servicio y sacar informes de manera distinta a como lo hacíamos en WSUS 2.0. Pero esa es otra historia, y ahora estamos en el último cuarto del España-Argentina.
David
En los últimos días me han llegado noticias sobre increíbles mejoras de rendimiento de Windows XP Service Pack 3, lógicamente catalogadas como algo muy positivo. Pero la cosa estaba clara. Es simplemente la enésima estrategia para intentar desprestigiar Windows Vista contra el que ha sido erigido su "enemigo" natural. Una estrategia, como veremos, nada nueva.
Por supuesto, no descarto en absoluto que Windows XP SP3 vaya mejor. Es más, espero que asi sea, porque si para algo se soportan los productos que tienes en el mercado es para mejorarlos. Me he animado a escribir esto porque el otro dia estuve mirando algo de información acerca de lo que se incluía en el Service Pack 3 a petición de mi compañero Jose Murillo, y además de la consabida colección de actualizaciones de seguridad y funcionalidad aparecidas desde el SP2, las nuevas funcionalidades que se han incluido son en su mayor parte implementaciones de algunas de las ya incluidas en Windows Vista, como por ejemplo el cliente de NAP o la "Black Hole Router Detection" por citar dos escogidas al azar. Asi es que lo primero que me he preguntado es que si Vista es tan malo, cómo es posible que el rendimiento haya mejorado y no empeorado.
Por lo tanto me he puesto a leer.
La "blogosfera amarilla" reza que, usando Office, el rendimiento de XP SP3 mejora en un 10% con respecto al SP2 y que por supuesto deja en pañales a Windows Vista SP1, que es malo malísimo, situándole entre los 10 peores productos de todos los tiempos.
Mi cabeza de físico se pregunta automáticamente de dónde habrán salido tales datos, y me asombro ante la brillante mente ha conseguido usar Office como herramienta de benchmarking. Parece que la fuente es Computerworld. Vamos para alla:
http://www.computerworld.com/action/article.do?command=viewArticleBasic&articleId=9048658
Un simple vistazo basta para comprobar que esta tampoco era la fuente. Pero ya sabemos algo más. No, no se utilizo Office para las pruebas de rendimiento. Se utilizó algo llamado Officebench, desarrollado por una empresa antiguamente denominada CSA Research y actualmente con un nombre verdaderamente maligno, aunque eso si, Office 2007 estaba instalado en el equipo. Uno de sus jefes si que parece ser la raiz de toda la historia:
http://exo-blog.blogspot.com/2007/11/windows-xp-sp3-yields-performance-gains.html
Me asombra comprobar que se preocupa de mencionar que ha utilizado dos modelos exactos de un único modelo de equipo para hacer el estudio. De hecho la mayoría de los comentarios de la gente son bastante críticos, pero a mi me basta con la unicidad de la muestra. Me quedo con las ganas de saber exactamente en qué consiste las batería de pruebas de dicho producto.
Pero la cosa no termina ahi. Tirando de histórico (juro no haber usado Google) me encuentro que la herramienta en cuestión fué utilizada hace algunos años para demostrar exactamente lo mismo, pero con Windows XP respecto a Windows 2000. Cambia el nombre de los productos por los de hoy y...:
http://www.infoage.idg.com.au/index.php/id;1157573402;fp;32768;fpid;179647284
Executive summary: Performance isn't the only factor that goes into the decision to upgrade desktop operating systems. But if capitalising on the benefits of Windows XP requires investing in new PC hardware, then a company-wide upgrade could be cost-prohibitive. Test centre perspective: The results of our benchmark tests indicate that Windows XP is significantly slower than Windows 2000, especially under heavy load. Unless investing in new hardware for demanding users is an option, companies should stick with Windows 2000.
Executive summary: Performance isn't the only factor that goes into the decision to upgrade desktop operating systems. But if capitalising on the benefits of Windows XP requires investing in new PC hardware, then a company-wide upgrade could be cost-prohibitive.
Test centre perspective: The results of our benchmark tests indicate that Windows XP is significantly slower than Windows 2000, especially under heavy load. Unless investing in new hardware for demanding users is an option, companies should stick with Windows 2000.
El otro dia un chaval muy majo de tan solo 16 años se me acercó en Valencia para que le aconsejara qué carrera debía estudiar para poder entrar algún día en una empresa como Microsoft. Además de lo que le contesté por correo, aqui van algunas recomendaciones más, que no le mencioné por obvias pero que me gustaría recordarle aqui y ahora (un buen jefe mio me solía decir que lo obvio es lo que más hay que explicar, porque el sentido común es el menos común de los sentidos).
NOTA: Escrito originalmente el 31/10/2008 y modificado el 15/10/2009 para incluir los cambios introducidos en Windows Server 2008 R2 y las dudas más frecuentes que nos han transmitido acerca de este tema en el último año.
Cuando uno adquiere una licencia de Windows Server 2008 R2, esta adquiriendo los siguientes derechos:
Nótese que la diferencia entre Standard/Enterprise y Datacenter es que los dos primeros se licencian por servidor, y el segundo se licencia por procesador (físico, no por número de cores). Es importante recalcar que Microsoft no licencia sus sistemas operativos para otra cosa que no sean dispositivos físicos, bien sean servidores o procesadores. En otras palabras, no se puede asignar una licencia de Windows (Server o Client) a una máquina virtual.
Otro error frecuente en torno a todo esto es confundir los derechos que os otorga el licenciamiento con las capacidades técnicas del producto. Hyper-V tiene exactamente las mismas capacidades en las tres ediciones de Windows Server y no está limitado a la ejecución de un número particular de máquinas virtuales. Las diferencias radican solamente en las capacidades de la edición de Windows, en lo tocante al soporte de número de procesadores, cantidad de memoria RAM, o funcionalidades de alta disponibilidad no presentes en la Standard
Consideraciones importantes:
Después de todo esto, la duda suele ser qué edición nos conviene más, si la edición Enterprise, o olvidarnos del licenciamiento y adquirir Datacenter. La clave es, por supuesto, el número de procesadores de los servidores físicos que vamos a utilizar como hosts de virtualización, el ratio de servidores virtuales por servidor físico, y también la situación de partida. Si partimos de una situación en la que vamos a empezar a crecer en servicios virtualizados, si vamos a consolidar servidores físicos con Windows Server, o incluso si no vamos a virtualizar Windows Server.
Escenarios de licenciamiento
En este tipo de ejercicios de consolidación se suele uno encontrar ante un problema adicional. ¿Que sucede con las versiones OEM?. ¿Es legal hacer un P2V de una versión OEM de Windows Server?. El razonamiento es sencillo. Las versiones OEM “nacen y mueren” con el servidor físico con el que las adquirimos, ya que no pueden ser traspasadas a otro ni siquiera del mismo fabricante. Dado que si lo virtualizamos la licencia pasará a estar asociada al servidor físico que aloje la VM resultante, estaremos violando el acuerdo de licencia. Pero por otro lado es posible que en el servidor destino, licenciado con Enterprise o Datacenter, tengamos derecho a correr nuevas instancias de Windows Server. Estrictamente hablando deberíamos reinstalar esa VM con una versión de Windows Server para usar diferente clave y podríamos tener problemas con los sistemas de activación, pero ahí queda la cosa.
Hyper-V como role de Windows Server vs. Microsoft Hyper-V Server 2008 R2
De todo lo anterior se extrae un conclusión importante. A la hora de virtualizar Windows Server, Microsoft gana exactamente lo mismo virtualices con Hyper-V o con cualquier otra solución del mercado, ya que precios y licenciamiento son independientes del hypervisor elegido. Al incluir un hypervisor como un role dentro de Windows Server 2008 y Windows Server 2008 R2, Microsoft permite que virtualizar o no sea una decisión en manos exclusivamente del cliente, y que además dicha decisión no suponga una inversión adicional en software, al estar incluida dentro del sistema operativo.
Adicionalmente, y siguiendo esta misma línea, Microsoft pone gratuitamente a disposición de todo el mundo Microsoft Hyper-V Server 2008 R2, que incluye todo lo necesario para montar un host de virtualización, con toda la funcionalidad de Hyper-V R2, incluyendo HA, Live Migration, CSVs y el mismo soporte de hardware que un Windows Server 2008 R2 Enterprise. Sin embargo, al tratarse se una descarga gratuita, no otorga ninguna clase de derecho adicional desde el punto de vista de licenciamiento, por lo que todo lo que corra por encima debe licenciarse acorde. Así es que desde un punto de vista exclusivamente de licencias:
Sin embargo desde un punto de vista técnico, operativo y de arquitectura, la nube interna debe ir licenciada con Windows Server 2008 Datacenter. En este tipo de entornos el ejercicio consiste simplemente en contar procesadores, licenciarlos, y disfrutar no solo de la virtualización sino de todas las funcionalidades incluidas en el sistema operativo Windows Server
¿Tiene sentido este modelo?. ¿Es realmente más sencillo de lo que parece?. Yo creo que si. Parece que la tendencia a futuro en el datacenter es pagar en base al consumo de recursos, bien los alberguemos dentro de la organización, bien sea un tercero el que nos los preste. Al llevarlo a una simple cuenta de CPUs, este modelo de licenciamiento es definitivamente mucho más compatible con este esquema que el tradicional pago por instalación del sistema operativo.
Últimamente nos preguntan amenudo por este pequeño inconveniente y si buscas por ahi encontrarás que la culpa es, como no, de Windows Vista. Afortunadamente nosotros ya nos lo hemos preguntado antes, porque nos ha sucedido en todos los portátiles que tenemos y en algún sobremesa, asi es que esta es la respuesta.
Antes de nada, recordar la tabla de máxima memoria soportada por las ediciones de Windows
Version
Limit in 32-bit Windows
Limit in 64-bit Windows
Windows Server 2008 Datacenter (full installation)
64 GB
2 TB
Windows Server 2008 Datacenter (Server Core installation)
Windows Server 2008 Enterprise
Windows Server 2008 Standard
4 GB
32 GB
Windows Server 2008 for Itanium-Based Systems
Not applicable
Windows Web Server 2008
Windows Vista Ultimate
128 GB
Windows Vista Enterprise
Windows Vista Business
Windows Vista Home Premium
16 GB
Windows Vista Home Basic
8 GB
Windows Vista Starter
Windows Server 2003 SP2, Datacenter Edition
64 GB with 4GT
Windows Server 2003 SP2, Enterprise Edition
Windows Storage Server 2003, Enterprise Edition
Windows Storage Server 2003
Windows Server 2003 R2 Datacenter Edition
Windows Server 2003 with SP1, Datacenter Edition
16 GB with 4GT
1 TB
Windows Server 2003 R2 Enterprise Edition
Windows Server 2003 with SP1, Enterprise Edition
Windows Server 2003 R2 Standard Edition
Windows Server 2003, Standard Edition SP1
Windows Server 2003, Datacenter Edition
512 GB
Windows Server 2003, Enterprise Edition
Windows Server 2003, Standard Edition
Windows Server 2003, Web Edition
2 GB
Windows Small Business Server 2003
Windows Compute Cluster Server 2003
Windows XP
Windows XP Starter Edition
512 MB
Como se puede observar, salvo que se trate de una edición de Vista Starter, no debería haber problema alguno. Con sistemas de 32-bit el máximo de memoria es 4Gb (2^32) y por tanto tampoco debería ser necesario pasarse a x64 si no tenemos más de 4Gb.
Para ilustrar un poco más el problema, en nuestro caso, con Windows Server 2008 x64, nos sucede lo siguiente. Las propiedades del sistema lee la cantidad de memoria física instalada,marcando los 4Gb correspondientes a los dos módulos de 2Gb instalados, aunque realmente disponible para el sistema tenemos una cantidad considerablemente menor. Esa cantidad varía según la máquina y la versión de la BIOS:
Por tanto, el "problema" es independiente del sistema operativo y se debe a la actual arquitectura de algunos equipos, en particular de los portátiles, en la que los dispositivos del sistema reservan direcciones de memoria justo por debajo de los 4Gb. En algunas BIOS hay opciones para configurar las "memory mapped IO reservations" e intentar paliar la situación, pero como digo es independiente del software.
Hay información tecnica y una exlicación más detallada aqui:
http://blogs.msdn.com/hiltonl/archive/2007/04/13/the-3gb-not-4gb-ram-problem.aspx
http://www.asisupport.com/ts_4GB_memory_info.htm
Hola de nuevo
Antes de nada, existen dos versiones de Virtual Server 2005 R2:
Dado que si vamos a instalar Virtual Server en un Windows Vista asumo que es para hacer pruebas, esta última es lo suficientemente estable como para poder ser usada para dicho propósito o para realizar pilotos. Además si tenemos procesadores que soporten virtualización asistida por hardware (AMD-V o Intel-VT) nos podremos beneficiar de esta ventaja ya que en el SP1 está soportada. Recordar también que de ambas versiones existen los correspondientes binarios para i386 y x64.
Al grano. Lo primero es tener instalado IIS7 en Windows Vista, que está disponible como una característica (por cierto, si lo estas buscando, el comando Telnet también). Es necesario agregar los siguientes componentes de IIS7.
Lo segundo es conectarse a la consola Web de Virtual server usando elevación en Internet Explorer. Es decir, clic con el botón de la derecha en el enlace a la consola, y seleccionar "Ejecutar como administrador".
Corriendo el riesgo de no ser muy original en la temática escogida, vamos a dedicar este post a ver algunas de las funcionalidades del nuevo Virtual PC, al que parece que habíamos enterrado antes de tiempo. Últimamente, la evolución de Kidaro hacia MED-V ponía de manifiesto la necesidad de evolucionar el motor de virtualización en el lado cliente, pero su inclusión como una funcionalidad de Windows 7 es algo que se ha sabido hace poco, incluso internamente.
Windows Virtual PC aparece en los últimos días íntimamente relacionado a “Windows XP Mode”, que en resumidas cuentas consiste en una máquina virtual preconfigurada con un Windows XP SP3. Lo que hace especial a esa máquina es que será directamente descargable por el usuario que haya adquirido las versiones de Windows 7 que dan derecho a ello, y que gracias a las nuevas funcionalidades de Windows Virtual PC, permite ejecutar en ella las aplicaciones incompatibles con Windows 7 pero con sus ventanas integradas en el escritorio del usuario. Por supuesto, podremos también usar la tradicional ventana que nos muestre todo el escritorio de la máquina virtual con sus aplicaciones corriendo.
Como digo, esta funcionalidad no es propia de la imagen ya preconfigurada, sino que se puede hacer lo mismo con cualquier VM con Windows XP SP3, Windows Vista SP1 o Windows 7. Basta con crear la VM e instalar el sistema operativo, instalar los nuevos Componentes de Integración y hacer algunos ajustes. Todos los detalles están aquí:
Tras haber estado con Fernando parte de la mañana trasteando, os dejo algunos trucos para ahorrar tiempo:
Lo del soporte de USB parece que puede llegar bastante lejos. Estoy probando lo más friki que se me ha ocurrido, y ya os contaré. Anticipándome a la pregunta, Windows Virtual PC soporta USB pero no VMs x64. Justo al contrario que Hyper-V, que no soporta USB, pero si VMs x64. A ver si un día los de los grupos de producto salen a cenar y se obra el milagro.
Lo de las ventanas, opciones y menús en español es obra del Language Pack. Por ahora mi decisión es usar Windows 7 x64 y Office 2007 en ingles y usar los paquetes de idioma en castellano, lo que da la opción de cambiar la interfaz de idioma cuando así se desee.
Hoy toca hablar de cluster. Lo cierto es que el término es a veces un poco confuso, porque se refiere a un grupo de diferentes máquinas trabajando juntas por alguna razón determinada. En éste artículo de la Wikipedia creo que se explica muy bien, y distingue entre clústeres de Alta Disponibilidad (HA clusters), clústeres de balanceo de carga (Load Balancing clusters) y clústeres de computación (Grids)
En particular, en el mundo Microsoft existen tres tecnologías diferentes para cada uno de estos tipos de clustering. Dos de ellas están incluidas en Windows Server, y la otra en una edición especial. Ésta es una presentación al respecto, un poco arcaica ya, pero es mía :-)
Todos y cada uno de estos tipos de cluster tienen algo que ver con el mundo de la virtualización. Todos pueden montarse en un entorno puramente virtual allí donde tenga sentido hacerlo (Clústeres virtuales, NLB entre VMs, o nodos de HPC virtuales), y los hosts físicos de Hyper-V pueden funcionar tanto con Failover Clustering como con NLB, si bien esto último es raro y me costaría imaginar algún entorno en el que fuera aplicable.
En adelante nos vamos a centrar únicamente en Failover Clustering y su relación tanto con los hosts de hyper-V como con las VMs que montemos encima. Distinguimos entonces:
Vamos a tratar de aclarar las dudas más frecuentes que suelen surgir sobre todo esto:
Host Clustering
Creo que esto se entiende fácilmente simplemente diciendo que es la combinación de la característica (role) de Hyper-V y la funcionalidad (feature) de Failover Cluster incluidos en Windows Server 2008 x64 Enterprise y Datacenter. La configuración hardware más típica para montar esto consiste en:
Por suerte, puedo ahorrarme el hacer un paso a paso de la creación de un cluster de Hyper-V porque abundan. Si que creo que es importante referenciar la documentación que considero "autoritativa" para ello:
Para los interesados en probar esto y que no cuenten con este tipo de sistemas de almacenamiento compartido, queda la friki-opción de usar uno o varios File Shares (y si ya nos queremos complicar aún más la vida, que sean por NFS). Todo esto, y mucho más, está detallado en este post de mi compañero José Barreto. De hecho él tiene publicado un post mucho mas curado que éste que estas leyendo, y que se titula Windows Server 2008 Hyper-V Failover Clustering Options.
Un tipo particular de Failover Clusters son los clústeres geográficamente dispersos, multi-site clusters o GeoClusters. Y están de moda. Espero poder dedicar algún tiempo a dar más detalles sobre ellos (aprovechando que Dani Matey, con nocturnidad y en compañía de otros, hace poco que ha estado montando un par de ellos en sendos clientes de esos cuyo nombre conocemos sin excepción todos los españolitos). Mientras tanto, vayan por delante algunas consideraciones:
Para hacernos una idea de soluciones de este tipo, he aquí una lista, que francamente no he repasado y no sé cuantas de ellas pueden aplicar a Hyper-V y Windows Server 2008.
Guest Clustering
Llegados a este punto, cabe preguntarse acerca de la necesidad o no de montar un cluster virtual. Por un lado, si el failover cluster se inventó principalmente para proteger a las cargas de trabajo ante un eventual fallo del hardware físico, y no solamente ya no tenemos hardware físico que se rompa sino que además ese "hardware virtual" se puede beneficiar de las tolerancia a fallos del host de virtualización que lo sustenta, ¿que ganamos?. Si la VM ya tiene alta disponibilidad, ¿para que rizar el rizo?. Pero por otro, ¿quien nos defiende ante un fallo que suceda a nivel de sistema operativo o aplicación dentro de la máquina virtual?. Y además, si tengo clusteres físicos en producción, ¿por qué no beneficiarme de las ventajas de la virtualización en los entornos de pre-producción y pruebas y desarrollo equivalentes?. Resumiendo, el "host clustering" de VMs reduce pero no elimina la necesidad de usar "guest clustering".
Antes de meternos a ver cómo se montan en Hyper-V, es conveniente repasar la manera en que hace en Virtual Server y en otras soluciones de virtualización. En esos entornos se emular una controladora SCSI que soporte bus sharing (la Adaptec 7870 para mas señas en el caso de Virtual Server, y en otros casos LSI, BusLogic, etc.), y que, en resumidas cuentas, pueda realizar las operaciones descritas en este artículo de la Knowledge Base. Pues bien, el diseño del Failover Cluster de Windows Server 2008 se lleva a cabo teniendo en cuenta las necesidades de los modernos entornos de almacenamiento compartido, y no soporta más el tradicional bus SCSI. Me sorprendería mucho que alguien montara un cluster virtual de Windows Server 2008 (que efectivamente funcione, no que termine el el proceso de configuración) usando las controladoras emuladas arriba citadas.
La controladora SCSI que se usa en Hyper-V no es una emulada sino sintética, es decir, no es una implementación software de una ninguna controladora SCSI que exista o existió en el mercado. Y no soporta bus sharing, lo que la hace incapaz de soportar un cluster de Windows 2000 Server o Windows Server 2003. Mis sospechas (personales) es que si el clustering a través de SCSI no se soporta en Windows Server 2008, simplemente no se ha invertido en este sentido en la controladora SCSI sintética de Hyper-V.
¿Cómo se hace pues un cluster virtual en Hyper-V?. Pues a través de una tecnología bien soportada en Windows 2000, 2003 y 2008. Usando iSCSI. Para ello necesitamos dos piezas:
Esto tiene bajo mi punto de vista una ventaja y un inconveniente. La ventaja es que el almacenamiento se le presenta directamente a la VM, y solo nos tendremos que preocupar de optimizar las tarjetas de red virtuales y las del host físico, ya que obviamente estamos encapsulando comandos SCSI sobre Ethernet lo que debe ser tenido en cuenta a la hora de dimensionar la solución. El inconveniente es que a fecha de hoy el almacenamiento iSCSI no es tan frecuente como el Fiber Channel, y los buenos iSCSI targets gratuitos escasean. En este sentido creo que vamos a asistir en los próximos años a la competencia entre la fibra y el cobre también en el campo del almacenamiento.
Bueno, menudo ladrillo. Y lo peor es que tengo la sensación de dejarme un montón de cosas en el tintero. Espero que al menos a alguien le resulte aclaratorio.
En esta guía podéis encontrar las configuraciones de OCS 2007 que están probadas y soportadas en entornos virtualizados, así como recomendaciones para instalarlo y configurarlo de modo que la solución tenga un buen funcionamiento.
Running Microsoft Office Communications Server 2007 R2 in a Virtualized Topology: Best Practices and Performance Considerations
Esta bastante bien detallada la arquitectura de la solución que se ha probado, con datos de escalabilidad y todo.
Durante los meses de verano una de nuestras principales ocupaciones es planificar parte de las actividades que haremos durante el curso y preparar el contenido de las mismas. Giras, eventos, webcasts, screencasts, guías, etc. Los ciclos de vida de los productos y lanzamientos marcan una buena parte de dicho contenido, pero tampoco es extraño que a lo largo del año la gente nos solicite más o menos cosas de determinadas tecnologías que no se habían previsto a priori.
Lo que tenemos en la cabeza para este año es, principalmente:
Sin embargo, como cualquier idea es siempre bienvenida, me gustaría que propusierais lo que se os ocurra como contenido de este tipo de actividades.
Simplemente dejad un comentario aquí o mandadme un correo dándole al botoncito de "email" de arriba a la izquierda. A las mejores ideas/propuestas ya les enviaré algo (camisetas, copias pata negra de Windows Vista, o le que vaya pillando de los almacenes de los de marketing). Y a los que se animen a llevarse el premio gordo y quieran a participar como ponentes y/o creadores de contenido, los recibiremos con los brazos abiertos.
Y además, nada menos que por una fuente oficial. Es la anunciadísima hecatombe, la decadencia, el fin del imperio.
La metodología es sencilla. Dos máquinas virtuales ejecutándose simultáneamente sobre le mismo host. Mismo hardware virtual, mismos recursos para cada sistema operativo. Pero eso no es todo. Para mayor mofa y escarnio, la de Windows 95 tiene 16 veces menos memoria RAM y 6 veces menos tamaño de disco. Eso sin contar que Windows Vista tiene instaladas las Vitual Machine Additions para darle alegría, cosa que no es posible en Windows 95, porque no existen.
En este vídeo se puede comprobar claramente que Windows 95 arranca y apaga más rápido, reaccionando de manera más veloz ante un doble clic en cualquier elemento. De paso también pone de manifiesto que la web de Microsoft ni siquiera funciona bien con Internet Explorer.
Teniendo en cuanta además que Windows 95 es mucho más seguro, porque no necesita parches del Windows Update, ni antivirus ante la inexistencia de malware activo para dicho sistema operativo, "Quod Eram Demostrandum". ¡Descárgatelo ya del bittorrent!. ¡Pásalo!.
Si todo esto tiene sentido para ti, y después de haberle tirado tres huevos al primer tipo de Microsoft que se cruce en tu camino mientras le exiges que te devuelva tu dinero, tienes tres opciones:
Por otro lado, puede que esta prueba de concepto te parezca una soberbia tontería. No te entiendo, la verdad. ¿Lo dices porque se nota a la legua que he utilizado realmente la versión OSR2.5 de Windows 95?. ¿Porque la metodología que he utilizado no garantiza la veracidad del resultado?. ¿Quizás porque debería haberme leído la Guía "Measuring Performance in Windows Vista"?. Como sois los escépticos. Seguro que os pagan por pensar así.
Si no estas muy seguro de a qué atenerte, si todavía tienes tus dudas de que esta demoledora e irrefutable prueba tenga alguna validez, tal vez las siguientes preguntas te ayuden a centrar un poco más tu opinión.
NOTA 1: Yo personalmente, nunca debí dejar de usar NetBSD 1.3, desde el que pretendía crear el virus definitivo que destruyera Windows para siempre. Mira que me iba bien en el 386. Mucho mejor que el Windows pirata, donde va a parar.
NOTA 2: Como, ¿no usas Hyper-V para esto?. No, estamos jugando...
NOTA 3: Si te sueles acercar a este blog en busca de otras cosas, mis disculpas.
Con este abro una serie de posts dedicados al tema de la virtualización del escritorio, en el que explicaré cual es la foto final que se pretende alcanzar. En los sucesivos daré información más detallada de cada una de las piezas que conforman el escenario.
Antes de nada, aclarar el título. Como ya expliqué en este otro post, es frecuente confundir la virtualización del escritorio con lo que hoy conocemos como VDI. Como decía entonces, existen mas posibilidades que la mera creación de una máquina virtual en el Datacenter para lograr que un usuario tenga sus aplicaciones o todo su “botón de inicio” en un lugar diferente al dispositivo físico que tiene en sus manos.
En este escenario vamos a combinar tres tecnologías diferentes:
Por ahora, dejaremos fuera la posibilidad de virtualizar clientes (o incluso servidores) en el propio equipo cliente, si bien esto abre nuevas posibilidades. Esto lo haríamos con Windows Virtual PC y/o Microsoft Enterprise Desktop Virtualization (MED-V).
El escenario sería este:
Los clientes físicos, portátiles, sobremesas o thin-clients, reciben algunas aplicaciones virtualizadas con App-V, y las ejecutan junto con las que pudieran estar ya instaladas físicamente. En este caso la ejecución es local, si bien las aplicaciones virtualizadas viven en su propia burbuja, sin “manchar” el Sistema Operativo base y sin “pelearse” unas con otras. Podemos llegar a tener ejecutándose simultáneamente diferentes versiones de la misma aplicación.
Estos los usuarios trabajando en estos clientes pueden necesitar en un momento dado ejecutar una aplicación específica que no este presente en su equipo, o incluso tener que conectarse a otro escritorio donde se ejecuta un entorno de aplicaciones específicas. Para lo primero puede acceder a una “Remote App” publicada en un servidor de terminales y para lo segundo puede, o abrir una sesión contra un servidor de terminales, o bien conectarse a una máquina virtual corriendo un sistema operativo cliente.
En este caso, los RD Web Access ofrecen un portal donde el usuario puede elegir lo que quiere hacer. Lanzar una aplicación remota, conectarse a un terminal server, conectarse a su máquina virtual personal (no dibujada), o conectarse a una máquina virtual de un pool de ellas configuradas de forma idéntica. Una vez hecha a difícil selección, será el Connection Broker quien se encargue de redirigir esa petición a buen puerto, en función del usuario y el destino. En ultima instancia, será el cliente el que hablará directamente con el destino asignado, y puede hacerlo de manera segura a través de un Gateway (no dibujado) en caso de que se encuentre en una localización remota.
El servidor de App-V se encarga de mandar las aplicaciones virtualizadas mediante streaming a los clientes físicos, a los servidores de terminal y a las máquinas virtuales, yéndose estas a sumar a las que pudieran estar instaladas directamente sobre el sistema operativo. He de decir que App-V soporta otros métodos de distribución de las aplicaciones, pero no quiero complicar esto mucho más de la necesario.
Tenemos por tanto:
Reiterando que me dejo fuera Windows Virtual PC y MED-V, solo hace falta aplicar un poco de combinatoria para darnos cuenta de lo rico que es todo esto, y de lo complicado que puede ser atinar con una estrategia de virtualización del escritorio adecuada. No conozco ninguna empresa que pueda presumir de haberse quedado única y exclusivamente con una de las combinaciones. Generalmente hay que analizar casuísticas en función de tipología de usuarios, aplicaciones que deben utilizar, datos que deben manejar y localizaciones en las que tienen que trabajar. Todo esto sumado a la infraestructura necesaria y al coste de la misma.
Llevo toda la semana montando dos escenarios que enseñan todo esto. Yo mismo me he sorprendido de haberlo podido montar todo en un único portátil. ¡Y me sobran 3-4 Gb de RAM para meter más cosas!:
Utilizo un portátil de 8 GB de RAM con Windows Server 2008 R2 con Hyper-V como estación de trabajo. Como siempre, uno de los principales trucos para mejorar el rendimiento de una solución de virtualización pasa por repartir bien el IO. Uso el disco interno para correr una VM que contiene el DC y el Bróker y tengo un par de discos USB externos conde corro las máquinas virtuales del pool y el servidor de terminal. Este contiene además tanto la parte cliente como servidora de App-V, consumiendo las propias aplicaciones que publica y sirviéndolas por Remote App. Hace además las veces de máquina virtual personal del administrador.
Todo esto puede y debe escalar mucho más. He pasado algunas horas esta semana montando todo sobre una infraestructura con un par de clústeres y algún que otro servidor más por debajo. Y he contemplado mi primera Geo-LiveMigration entre dos cabinas que replican alguna de sus LUNs de manera síncrona. La semana que viene tengo que repetir la instalación en otro entorno en la oficina. Si alguien se anima…
Tengo pendiente montar System Center Operations Manager 2007 R2 y System Center Virtual Machine Manager 2008 R2 RC en cuanto estén disponibles para enriquecer todo lo anterior con gestión / monitorización avanzada del entorno.
Sin embargo todo lo que os he contado hoy está incluido en Windows.
Hoy he estado viendo uno de estos en la oficina:
Cada conjunto de monitor, teclado y ratón se conectan a una cajita USB que a su vez se conecta a HUBs USB conectados a los puertos del propio servidor. Por lo que se puede observar en fotos y vídeos, los requerimientos de hardware no son como para tirar cohetes a la luna.
Esta orientado al entorno educativo, donde, no nos olvidemos, lo importante deberían ser los contenidos y el para qué de las herramientas, mas que las propias herramientas.
Ayer, en mi paseo habitual por la blogosfera amarilla leí una estupidez tal que me entraron ganas de enfundarme la navajilla McGiver y desenfundar de una vez la katana. Pero gracias de nuevo a la lectura de aquellos a los que de verdad parece quedarles algo de sentido común, a la refrescante visión del futuro de la web que nos vislumbra Alfredo de Hoces, y comoquiera que parece que al correo electronico le queda todavía una larga vida por delante antes de ser cien veces maldito por su capacidad de implementar tecnologías DRM para la protección de su contenido, me vuelvo a mis cosas.
Antes del parón navideño, Eduardo Montes me preguntaba la forma de instalr Exchange 2007 sobre Windows Server 2007. Me lo apunté en las tareas pendientes y aprovechando la reconstrucción de mi maltrecho entorno de demos, incluí en él tres nuevas VMs basadas en Windows Server 2008. Una con el DC y todos los roles de Exchange Server 2007 (menos el Edge, obviamente), y dos nodos de un Failover Cluster con un modelo de quorum "Node y File Share Mayority), sin nigún tipo de almacenamiento compartido, con dos Exchange Server 2007 SP1 funcionando pura Cluster Continuous Replication de una Base de datos de buzones.
No voy a hacer una guía paso a paso con mucho detalle, porque los enlaces que os pongo tienen información muy precisa. A grandes rasgos hay que:
¿Hay algun valiente que se atreva a montar algo de esto en piloto, preproducción o incluso producción?. Si es asi, que por favor nos lo cuente.
Estos son los prerequisitos y los pasos a seguir:
Prerequisitos
Instalación:
Tras estos sencillos pasos, ya podemos empezar a probar el resto de funcionalidades de Windows Server 2008 creando máquinas virtuales. No está de más probar a crear algunas que sean a su vez x64 y multi-procesador.
Pero esa es otra historia que merece ser contada en otro momento.
Que lo disfruteis.
Hoy hemos terminado con los dos eventos de lanzamiento de Windows Server 2003 R2. Hoy en Barcelona, tras nuestra demo en la que clusterizabamos una máquina virtual de Windows Storage Server 2003 R2 en dos Blades de HP x64, hemos anunciado en directo que Virtual Server 2005 R2 Enterprise es ahora gratis, descargable desde la Web y lo que es aún más divertido, que damos soporte a algunas versiones de Linux (RedHat y SuSe), para las cuales se han desarrollado las Virtual Machine Additions correspondientes.
Toda la información en detalle está aqui:
http://www.microsoft.com/windowsserversystem/virtualserver/evaluation/news/bulletins/vs05pricing.mspx
NOTA: Escrito originalmente el 18/12/2008 y modificado el 15/10/2009 para incluir las nuevas VDI Suites y las dudas más frecuentes que nos han transmitido acerca de este tema en el último año
Como de costumbre cuando escribo sobre estos temas, es importante aclarar que dada la naturaleza perecedera de un blog y lo complejos que resultan en ocasiones los modelos de licenciamiento, la información que sigue debe tomarse como una mera referencia y acudir a nuestro distribuidor o contacto comercial habituales en busca de la última información y precios.
Cuando se habla de virtualizar escritorios Windows y llevárselos en forma de máquinas virtuales a vivir sobre un host en el datacenter, es importante tener en cuenta el modelo de licenciamiento que aplica a estos entornos. Al igual que sucede con Windows Server esto también es cierto a la hora de licenciar Windows Client:
Pongamos, y perdonad la “maldad”, que somos usuarios de un Mac o un Linux pero tenemos una máquina virtual con Windows para trabajar. En ese caso, seguimos teniendo adquirir una licencia de Windows para ese dispositivo y estaremos en situación perfectamente legal. Según el EULA de Windows (si nunca leíste un EULA, aquí están los End User License Agreements de todos los productos de Microsoft):
En lugar de usar el software directamente en el dispositivo con licencia, podrá instalar y usar el software solamente en un sistema de hardware virtual (o emulado de cualquier otro modo) en el dispositivo con licencia.
Pero, ¿que sucede si queremos llevarnos las instancias virtuales de Windows XP, Vista o 7 a correr sobre un hypervisor en el datacenter?. En este caso tenemos dos opciones:
Virtual Enterprise Centralized Desktop (VECD)
VECD es una suscripción anual que se asocia al dispositivo desde el que vamos a acceder a la infraestructura de VDI. En función de la naturaleza de dicho dispositivos podemos optar entre dos tipos de licencias VECD:
Los precios de estas suscripciones dependen nuevamente del tipo de contrato que tenga el cliente, pero se puede estimar que Windows VECD es entre 4 y 5 veces más caro que VECD for SA, donde ya se reconoce la inversión el cliente en la plataforma Windows.
En ambos casos, la suscripción anual es re-asignable a otro dispositivo de acceso de las mismas características pasados 90 días, y nos da derecho a acceder desde dicho dispositivo a hasta 4 instancias virtuales concurrentes de Windows corriendo en máquinas virtuales en el datacenter. Además estas instancias virtuales pueden moverse libremente entre diferentes hosts de virtualización. Toda la información la tenemos aquí:
El proceso para licenciar VDI no consiste por tanto en el recuento de máquinas virtuales, sino en el de los dispositivos físicos desde el que se accede. Solo tenemos que clasificarlos entre cubiertos o no con Software Assurance y adquirir las versiones de VECD que correspondan a cada uno de los dos grupos.
Durante el último año, estamos detectando una grave confusión en la venta de soluciones basadas en VDI. Si alguien durante el hipotético análisis del ahorro de costes de la centralización del escritorio con VDI te dice que puedes usar “el Windows que ya tienes” para instalar las máquinas virtuales, invítale amablemente a abandonar tus oficinas, porque, o no sabe de lo que habla, o sencillamente te está queriendo engañar. En estos casos, “el Windows que ya tienes” se refiere a las licencias que el cliente adquiere mediante un contrato de volumen. Como es bien sabido, dichas licencias solo otorgan derechos de actualización a la versión de Windows adquirida, siendo ilegal instalarlos en equipos sin sistema operativo, como es el caso de una máquina virtual. Generalmente se adquieren equipos a través de un fabricante determinado con sus licencias OEM de Windows, y se usa la licencia de actualización para plataformarlos con la imagen corporativa deseada. Y dado que las versiones OEM van asociadas al equipo, tampoco pueden utilizarse para instalar la máquina virtual.
Una vez analizado el requisito clave del licenciamiento de VDI, vamos a ver en qué consisten las VDI Suites que Microsoft a anunciado en Octubre de 2009 para complementar (no sustituir) VECD.
Las VDI Suites
Las nuevas VDI Suites son una pieza opcional, y adicional a VECD. Son también subscripciones anuales asociadas al dispositivo de acceso a la máquina virtual. Esto es lo que incluyen:
Obviamente, la versión Premium está pensada para aquellos clientes que deseen combinar las dos estrategias de centralización de escritorios más frecuentes. Hosted Virtual Desktops (VDI) y Server Based Based Desktops (Remote Desktop Services) y que en ambos casos quieran potenciar la solución con la virtualización de aplicaciones. La inclusión de las licencias de los productos mencionados de la familia de System Center tienen como propósito no descuidar la gestión del sistema sobre el que estan corriendo las máquinas virtuales.
¿Puede usarse una VDI Suite para soluciones basadas en otras soluciones de virtualización que no sean Hyper-V?. Por supuesto que si, solo que en ese caso necesitaremos un desembolso adicional, en el hypervisor, en el broker, y en otros componentes.
Conclusión:
Como ya hemos comentado por aquí en más de una ocasión, Virtualización del Escritorio es mucho más que VDI, siendo este último una de las opciones para alcanzar el objetivo. Si queremos montar una solución de virtualización del escritorio que incluya VDI necesitaremos:
Y lo anterior es independiente del fabricante de la solución de virtualización elegida. Lamentablemente, sospecha de cualquiera que te diga que no necesitas VECD para una infraestructura de VDI
Referencias:
Posts anteriores:
Hasta el momento hemos tratado diferentes aspectos de los requisitos e instalación de Hyper-V. Con lo que tenemos hasta ahora ya podemos empezar a crear máquinas virtuales y a moverlas entre los hosts del cluster siempre que contemos con las consolas correspondientes instaladas en algún servidor Windows server 2008 R2 o un Windows 7 con las Remote Server Administration Tools (RSAT). En este post vamos a ver como realizar una instalación y configuración inicial de System Center Virtual Machine Manager 2008 R2. Por no llenarlo de pantallazos, he decidido simplemente publicar los mas relevantes. En este PDF he incluido todos.
La instalación de Virtual Machine Manager es bastante sencilla y rápida, y simplemente nos pedirá tomar una decisión por cada uno de los componentes de su arquitectura. Lo mas sencillo es instalar todo sobre el mismo servidor, pero pueden también instalarse por separado den diferentes equipos. Un servidor para la base de datos, otro para el servicio, otro para el portal, la consola de gestión en los clientes y file servers para la biblioteca. Los agentes son necesarios en los host que se gestionarán, en el servidor que alberga el servicio, y en los servidores que conformen la biblioteca:
Llegados a este punto ya tenemos una instalación funcional de System Center Virtual Machine Manager:
Para poder empezar a hacer cosas con el, será necesario:
Mas información (http://blogs.technet.com/b/davidcervigon/p/systemcenter.aspx)
Al igual que en las versiones anteriores, Microsoft Hyper-V Server 2012 tiene exactamente las mismas funcionalidades y máximos de escalabilidad que el role de Hyper-V incluido en Windows Server 2012 Standard o Datacenter, y puede descargarse de manera gratuita desde aquí:
Como dice en la página anterior, esta será la versión de Hyper-V a utilizar en el caso de que no nos vayamos a beneficiar de los derechos virtualización incluidos en la propia licencia de Windows Server 2012. Los tres casos más típicos serían:
El proceso de instalación es muy similar al de un Windows Server 2012, con la diferencia de que el role de Hyper-V ya esta activado por defecto al final de la misma y solo nos queda el proceso de ponerle nombre al servidor, configurarle la red, el escritorio y administración remotas, meterlo o no en el dominio, etc.
El resultado final es este. Teníamos nuestras dudas de que se hubiera incluido el Server Manager para facilitar la administración, pero no, tenemos la tradicional interfaz de línea de comandos y el SCONFIG. Eso si, podemos lanzar Powershell donde tendremos a nuestra disposición todos los nuevos cmdlets de Hyper-V:
Obviamente, una vez instalado y configurado mínimamente el servidor, pasaremos a gestionarlo remotamente, con las consolas del Hyper-V Manager y el Failover Cluster Manager, o preferiblemente de System Center Virtual Machine Manager.