web hit counter
TechEd IT Professional 2008 - La Keynote: Windows Server 2008 R2, SQL Server Kilimanjaro, System Center, Online Services - Blog TechNet Italia - Site Home - TechNet Blogs

Blog TechNet Italia

Il blog italiano dedicato ai sistemisti e ai professionisti IT

TechEd IT Professional 2008 - La Keynote: Windows Server 2008 R2, SQL Server Kilimanjaro, System Center, Online Services

TechEd IT Professional 2008 - La Keynote: Windows Server 2008 R2, SQL Server Kilimanjaro, System Center, Online Services

  • Comments 5
  • Likes

E’ terminata da poco la Keynote di TechEd IT Professional 2008, e naturalmente, ci sono state delle sorprese (anche per noi…)

[Update del 4/11: è possibile rivedere in streaming la keynote dal sito di TechEd TV]

Come vi avevo anticipato ieri, la keynote è stata fatta da Brad Anderson, General Manager Management and Solutions Division (la divisione che segue PowerShell, i prodotti della famiglia System Center, il Microsoft Desktop Optimization Pack e tutti gli altri prodotti e tecnologie di Management Microsoft).

Brad Anderson ha evidenziato quelli che sono i trend attuali dell’IT:

  • Virtualizzazione
  • Green IT
  • Anywhere Access
  • Business Intelligence
  • Cloud Services.

In un momento economico difficile, è stato sottolineato come il compito dell’IT sia sì quello di ridurre i costi, ma anche di rendere disponibili per il Business nuove “capabilities”, che offrano alle aziende la possibilità di crescere in modo agile ed efficiente. In che modo?

La risposta Microsoft è il framework “Dynamic IT”, che offre alle aziende una serie di guide e di strumenti per aiutarle a rendere il proprio dipartimento IT non un centro di costo, ma un asset per l’azienda e un “abilitatore di Business” attraverso una evoluzione in più stadi: Basic, Standard, Rationalized, Dynamic. (Approfondiremo l’argomento Dynamic IT nei prossimi giorni, intanto potete trovare un po’ di documentazione sul Sito TechNet Infrastructure Optimization).

Virtualizzazione

Microsoft considera la Virtualizzazione non come un prodotto, ma come una strategia trainante per il futuro. Una strategia che va dal server al desktop, alle applicazioni, ai prodotti di gestione dell’infrastruttura:

La Piattaforma di Virtualizzazione Microsoft

Non si tratta quindi semplicemente di sfruttare al meglio le risorse dei server, spesso inutilizzate, tramite soluzioni di server consolidation, ma anche di offrire funzionalità di business continuity, di gestione dimanica dei workload presenti nell’infrastruttura, di gestione dinamica delle applicazioni.

System Center e la gestione delle piattaforme non-Microsoft

Se la gestione (dinamica) dell’infrastruttura è un punto cardine della strategia Microsoft, bisogna ricordare come System Center permetta di gestire in modo unificato:

  • l’infrastruttura fisica
  • le piattaforme di virtualizzazione
  • i sistemi operativi “fisici” e “virtualizzati”
  • i servizi (in esecuzione in ambiente fisico e virtualizzato)
  • le applicazioni (in esecuzione in ambiente fisico e virtualizzato)
  • le piattaforme Microsoft e non-Microsoft.

Windows Server 2008 R2: Live Migration

Parlando di virtualizzazione e di gestione, non poteva mancare la demo basata su Windows Server 2008 R2 e sulle nuove funzionalità di Live Migration delle Virtual Machine. E’ stata fatta vedere l’integrazione tra i PRO Tips di Operations Manager e Virtual Machine Manager e Windows Server 2008 R2.

I Pro Tips segnalavano che una macchina virtuale non riusciva a rispondere alla richieste in arrivo in base al Service Level Agreement previsto, perchè l’host fisico era in sovraccarico. Aperto l’avviso è stata spostata “al volo” la VM su di un altro host (sempre Windows Server 2008 R2 con Live Migration) e immediatamente la VM ha iniziato a rispondere alle richieste in arrivo a pieno ritmo, senza neanche un attimo di downtime.

Green IT

Microsoft è uno dei più grandi "acquirenti" di server al mondo, e uno degli sforzi in atto è quello di costruire i nuovi datacenter che stanno nascendo in delle aree dove è possibile sfruttare le energie rinnovabili o dove è possibile ridurre al minimo i costi per il raffreddamento dei sistemi. (Potete approfondire questo argomento leggendo anche questo articolo dedicato al nuovo datacenter di Quincy, WA)

Application Virtualization: dalle applicazioni client alle applicazioni server

In un datacenter, dinamico e rispettoso dell’ambiente, il lavoro dei professionisti IT deve essere quello di gestire l’infrastruttura ad un livello più alto di quello attuale.

Sfruttando i servizi di base dell’infrastruttura Windows Server, che mette a disposizione una piattaforma di virtualizzazione affidabile e scalabile, e le funzionalità di management di System Center, che consente di spostare in modo dinamico i workload tra più host fisici, sarà possibile eseguire (anche in modo automatizzato) il deployment di una nuova applicazione o di un nuovo servizio server (posta, database, …)  all’interno della propria infrastruttura.

Ma sarà necessario ogni volta riconfigurare da zero le nuove applicazioni o i nuovi servizi server? No, perchè cambierà anche la modalità di deployment, sia delle applicazioni che dei servizi server.

La tecnologia su cui Microsoft sta investendo è quella di “Application Virtualization” (di cui parlo durante la mia sessione ai Microsoft Days 08), che già è applicabile alle applicazioni client, e che sarà estesa in futuro anche ai servizi server.

In questo modo sarà possibile ad esempio eseguire il deployment “al volo” di SQL Server all’interno di una VM creata a partire da una macchina base, e caricata all’interno dell’infrastruttura Hyper-V sfruttando le funzionalità di Intelligent Placement di System Center Virtual Machine Manager.

Sfruttando inoltre un linguaggio di modellazione (Oslo) le applicazioni e i servizi server potranno comunicare efficacemente con i sistemi di gestione, indicando quali sono le loro capabilities e le loro necessità, e consentendo quindi all’infrastruttura di essere sempre più dinamica e meglio gestita.

System Center: gestione dell’infrastruttura non-Microsoft

Uno dei temi trattati durante la Keynote relativamente alla gestione dell’infrastruttura è stato quello della gestione dell’infrastruttura non-Microsoft. Il lavoro di Microsoft in questo campo viene svolto insieme alla Community e a molti partner: Open Pegasus, Quest, Zen, Novell… ed è basato su standard, come WS-Management.

Già oggi System Center Virtual Machine Manager consente di gestire sia la piattaforma di virtualizzazione Microsoft che quella VMWare.

Le Cross Platform Extensions di System Center Operations Manager 2007 consentiranno di gestire, all’interno di Operations Manager, anche piattaforme non Microsoft, come ad esempio Linux, Unix, AIX, HP UX e così via. Le Cross Platform Extensions sono state annunciate ad aprile, ed è stata resa disponibile una prima beta.

A fine novembre sarà disponbile una nuova beta di Operations Manager 2007 R2 e delle Cross Platform Extensions, che consentiranno la gestione dei sistemi Linux e nuove funzionalità di reportistica.

Durante la demo è stata mostrata la gestione di una infrastruttura mista Microsoft/Linux, con database SQL Server, MySQL e Oracle, e con le funzionalità di Operations Manager di vista unificata dell’infrastruttura e del suo stato: hardware fisico, piattaforma di virtualizzazione, sistemi operativi virtualizzati, servizi in esecuzione sui sistemi operativi virtualizzati, applicazioni in esecuzione e loro dipendenze dai servizi in esecuzione sull’infrastruttura fisica e su quella virtualizzata.

Identity Management

Dal punto di vista dei prodotti di Identity Management è stato annunciato a breve il rilascio di:

  • Indentity Lifecycle Manager 2 – Release Candidate
  • Intelligent Application Gateway 2007 Service Pack 2.

Windows Server 2008 R2 

Come vi ho già detto, è stata fatta vedere la “Live Migration” delle macchine virtuali su una infrastruttura basata su Windows Server 2008 R2.

Ma le novità della R2 non sono solo queste.

image

I Terminal Services cambieranno nome, si chiameranno Remote Desktop Services e includeranno anche delle funzionalità di broker per consentire la creazione di una Virtual Desktop Infrastructure (VDI) interamente con prodotti Microsoft.

PowerShell 2.0 sarà installata di default sul sistema operativo; arriveranno nuovi profili di power management per ridurre il consumo di elettricità dei server; i Best Practices Analyzer offriranno una serie di guide e di informazioni su come configurare al meglio i propri sistemi.

Altre novità riguardano l’infrastruttura web, con ASP.NET che sarà supportato anche in modalità Server Core.

Per quanto riguarda l’integrazione con Windows 7, la nuova versione del sistema operativo client Microsoft, saranno in particolare due le novità in arrivo: Direct Access e Branch Cache.

Le funzionalità di Direct Access (di Windows 7 e Windows Server 2008 R2) consentiranno agli utenti che sono connessi al di fuori della propria rete aziendale di accedere alle risorse presenti all’interno della rete aziendale senza attivare una connessione VPN e in modo del tutto trasparente per gli utenti.

La funzionalità di Branch Cache permetterà invece di avere nelle sedi remote dei fileserver che funzioneranno anche come “cache server”. Quando un client accederà a dei contenuti presenti nella sede principale, verrà effettuata in modo automatico una copia in locale nel “calche server”, in modo che se quel contenuto sarà utilizzato da altri utenti risulterà essere già presente nella sede locale e non sarà scaricato di nuovo dalla sede principale, riducendo quindi il consumo di banda e i tempi di dattesa.

Altra novità in arrivo sul fronte BitLocker, con la possibilità di cifrare anche il contenuto di dischi esterni e “chiavine” usb.

SQL Server “Kilimanjaro”

E’ stata annunciata quindi una nuova release di SQL Server, codename “Kilimanjaro”, che avrà una serie di novità dal punto di vista della Business Intelligence.

I nuovi componenti “Gemini” degli Analysis Services abiliteranno gli utenti con delle funzionalità di “Self Service Analysis” e “Self Service Reporting”, senza che sia necessario l’intervento dell’IT.

La demo è stata veramente spettacolare. Su di un client (ed è stato sottolineato che fosse un pc client da 900€) era caricato un set di dati di 100 milioni di righe (…non ho sbagliato numero, 100 milioni di righe), proveniente dagli Analysis Services di SQL e caricato live in memoria. Sono stati presi quindi altri dati, provenienti da un foglio Excel, e i due blocchi di dati sono stati “combinati” al volo in una pivot Excel. A partire dalla pivot è stato creato un report, con funzionalità di drill-down su dati (Slices) e il report è stato pubblicato su SharePoint, tramite gli Excel Services e gli Analysis Services.

Una volta che l’utente ha creato il suo report, altri utenti della rete possono accedervi, vedere i risultati, ri-eseguire le query, personalizzare i report, ed è possibile trasportare il report all’interno di PerformancePoint Server.

(Potete approfondire le novità di SQL Server “Kilimanjaro” In questo post di Silvano).

Software+Services, Cloud Services

Dal punto di vista della visione di Microsoft sui servizi “in the Cloud”, è stato ribadito quando già detto a PDC.

L’obiettivo di Microsoft è quello di dare la possibilità agli utenti di avere i servizi necessari al proprio business:

  • Customer Hosted
  • Partner Hosted
  • Microsoft Hosted.

Il modello a cui Microsoft pensa è un modello ibrido: i clienti devono poter utilizzare uno qualsiasi dei propri servizi di infrastruttura in uno dei tre modi possibili, e devono poter passare da un modo ad un altro senza problemi.

Exchange Online

La demo mostrata per spiegare questa visione di Microsoft è stata fatta su Exchange. Una azienda che ha le funzionalità Exchange “Customer Hosted”, cioè installate e attivate all’interno della propria rete aziendale, decide di spostare le mailbox di alcuni utenti “in the cloud”, appoggiandosi alle funzionalità offerte da Exchange Online, un servizio Microsoft Hosted.

Tramite il portale web del servizio di Exchange Online attiva una sincronizzazione della sua Active Directory locale, creandone una nuova copia “in the cloud”, che da quel momento sarà sincronizzata in modo automatico con quella locale. Abilita quindi dal portale web alcuni degli utenti per l’utilizzo delle funzionalità di Exchange Online, e utilizzando il Migration Tool migra i dati degli utenti scelti dalla loro copia locale al servizio hosted. E gli utenti, in modo trasparente, iniziano ad utilizzare le funzionalità di Exchange Online, mentre gli altri continuano ad utilizzare quelle offerte dall’infrastruttura Exchange gi�� presente in azienda.

La disponibilità in Europa di Exchange Online è prevista per la primavera 2009.

Windows Azure

Per quanto riguarda Windows Azure e Azure Services Platform è stata ribadita la volontà di offrire a sviluppatori ed aziende una serie di servizi e di “building blocks”, utilizzabili in Visual Studio per creare applicazioni di nuova generazione o per estendere le applicazioni esistenti con le nuove funzionalità messe a disposizione dalla piattaforma Windows Azure.

Queste sono le mie note dalla Keynote di TechEd. Spero di farvi avere altre informazioni nei prossimi giorni!

A presto!

Renato

Comments
  • novità a go go!

    grande microsoft!!!

  • Nel gennaio 2002, con l’iniziativa Trustworthy Computing, Microsoft ha ufficializzato le iniziative che

  • Steve Ballmer ha annunciato ieri sera, durante la keynote di inizio del Consumer Electronics Show (CES)

Your comment has been posted.   Close
Thank you, your comment requires moderation so it may take a while to appear.   Close
Leave a Comment