• Techdays 2015 : zomBIe, le commencement

     

    Inscrivez-vous !

    Le commencement

    Vous voulez avoir une vision globale de nos solutions Big data, objets connectés, business intelligence et passer un bon moment… Inscrivez-vous à la session « Découverte de la vision d'ensemble de la plate-forme IoT/Big Data/ML/BI de Microsoft » .

    L’ensemble du parcours “Data Insight” est détaillé ici :

    http://blogs.technet.com/b/franmer/archive/2015/01/23/techdays-2015-les-sessions-du-parcours-data-insight.aspx

    Franck Mercier

    Sessions de formation gratuites :

    Pour tester Windows Server 2012, Windows 8, SQL Server 2012 et SQL Server 2014 CTP2, vous pouvez télécharger gratuitement la version d’évaluation disponible sous la forme :

    Windows Server 2012 :

    SQL Server 2012 :

    Evaluation SQL Server 2014 CTP2 :

    Evaluation Power BI :

    Testez Azure gratuitement pendant un mois :

  • Techdays 2015 : les sessions du parcours “Data Insight”

    Les Techdays 2015 se dérouleront du 10 au 12 février 2015 au palais des congrès (Paris, porte Maillot). Cette année, je m’occupe du parcours « data Insight ». Et ce parcours sera riche en sessions qui couvriront des sujets comme la base de données sous toutes ses formes (sur site, dans le Cloud, NoSQL,…), la Business Intelligence, le Big Data, le machine learning, les objets connectés (IoT) et des retours d’expérience.
    clip_image002
    En attendant de vous voir au Techdays, voici le programme et pensez bien à vous inscrire aux sessions pour que l’on puisse dimensionner au mieux les salles.
     

    SQL Server & la virtualisation : « 45 minutes inside » !

    Nadia Ben El Kadi et Christophe Laporte

    Mardi 10 février : 11h00-11h45

    Consolidation, cloud privé, cloud public, SQL As A Service etc. sont autant de scénarios de virtualisation possibles avec SQL Server. Cette session reposera les règles de bon usage de ce type de déploiement et les scénarios clés. Nous reviendrons sur quelques-unes des « Lessons learned from Azure ».
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=1931b81a-0661-4bde-a3fa-a7c597be227b
     

    La gouvernance des données

    Manon B et Jean-Pierre Riehl

    Mardi 10 février : 11h00-11h45

    Big Data ? Self-Service BI ? Open Data ? Mashup de données ?
    Dans un monde de profusion des données, il est de plus en plus difficile d'en maitriser la qualité. Et pourtant une bonne gouvernance des données est cruciale pour maximiser la valeur ajoutée pour les métiers. Dans cette session, nous traiterons de Data Gouvernance en entreprise et plus particulièrement de Data Quality Management, de Master Data Management, d'intégration de données et de l'implémentation de ces notions avec les outils Microsoft.
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=3e522b06-4367-43de-860e-175ba22128f3
     

    Découverte de la vision d'ensemble de la plate-forme IoT/Big Data/ML/BI de Microsoft (zomBIe)

    Emilie Beau, Ilana Cohen Bengio et Franck Mercier

    Mardi 10 février : 12h15-13h00 

    clip_image003

    ATTENTION !! SESSION DEJANTEE !!! Cette session constitue l'introduction au parcours Data Insight des Techdays 2015. En un an, nous avons annoncé pas moins de 30 nouveautés autour de la donnée. De la collecte des données en masse, sa transformation, et son exploitation en temps réel ou en mode batch, venez découvrir toutes ces nouveautés, illustrée par de nombreuses démonstrations dans un scénario déjanté. Nous y parlerons d'architecture Lambda, de traitement des données en temps réel, de création de dashbord dynamique… Et de pandémie zombie. En sortant de cette session, vous repartirez avec une bonne vue d'ensemble de la solution Data Insight de Microsoft, et peut être avec quelques goodies ! Voire transformés en zomBIe :) !».

    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=432f345a-1788-482a-a1e9-98a293f1e7aa
     

    La performance dans tous ses états avec SQL Server

    Frédéric Pichaut

    Mardi 10 février : 12h15-13h00

    En l'espace de 2 ans, le monde des bases de données relationnelles a connu une révolution en termes de performances grâce à l'avènement des technologies In-Memory, le stockage "en colonne" ainsi que la disponibilité de configurations matérielles dans le cloud toujours plus puissantes. SQL Server et Microsoft Azure ont été parmi les premières plates-formes à intégrer ces nouveautés. Venez découvrir ici les dessous du  In-Memory OLTP, In-Memory Column Store et StreamInsight.
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=5899ddf5-4f13-4d01-b307-2c19b10aca45
     

    Scikit-Learn: Machine Learning in Python

    Pierre-Louis Xech, Benjamin Guinebertière et Olivier Grisel

    Mardi 10 février : 15h15-16h00

    « Le « Machine Learning » – « Apprentissage statistique » ou « Analyse prédictive » - sort des labos de recherche et des cercles de spécialistes pour être de plus en plus être utilisé au sein des entreprises, et pas seulement les startups. En témoigne l'essor de la toolkit OpenSource Scikit-learn très vite répandue internationalement comme l'un des nouveaux standards de cette nouvelle façon de faire du logiciel, mais aussi la disponibilité depuis juillet 2014 d'Azure ML, le service de Machine Learning de Microsoft Azure. Dans cette session nous vous proposons un aperçu du développement de logiciel d'apprentissage statistique en Python avec SciKit-Learn. Nous invitons l'un des principaux contributeurs de cette toolkit, Olivier Grisel , ingénieur de recherche dans l'équipe équipe Inria PARIETAL à Saclay, à venir nous en présenter un aperçu dans une session interactive et basée sur de nombreux exemples et démos. Pour en savoir plus: http://scikit-learn.org   https://team.inria.fr/parietal/  https://twitter.com/ogrisel.
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=b2611386-20d4-4849-84f9-fdeb6348387f
     
     

    Power BI : 1 an après

    Isabelle Van Campenhoudt et Franck Mercier

    Mardi 10 février : 16h30-17h15

     
    Power sweat
     
    Durant cette session nous présenterons les évolutions de Power BI depuis 1 an. Nous ferons un bref rappel de Power BI puis nous présenterons les nouveaux connecteurs disponibles dans Excel pour accéder à tous types de données, les possibilités offertes pour transformer les données et y intégrer du Machine Learning. Nous verrons aussi comment créer des rapports avec des cartes personnalisées, comment partager les rapports et maintenir à jour les données des rapports publiés. Enfin nous vous présenterons les nouvelles possibilités offertes par Office 365 pour créer des rapports et des dashboards interactifs.
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=8e893076-db6a-48c7-a881-25103297b045
     

    Retour d'expérience : Comment mettre en oeuvre une solution ETL pilotée par ses métadonnées avec BIML

    Bertrand Renotte et Franck Mercier

    Mardi 10 février : 17h45-18h30

    Comment charger en parallèle un grand nombre de données sans pour autant complexifier les tâches de création et de maintenance ? Avec BIML, il est possible de créer des modèles qui serviront à la génération dynamique de packages SSIS (ou autre) pour l'intégration des données. BIML fournit aussi une gestion centralisée des modèles permettant la réduction des coûts et du temps de maintenance des différents packages.
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=8b540ce1-94c9-4d64-8fd3-23c51d7dceab
     

    Concevoir ses premiers objets connectés avec Azure

    Mickaël Mottet et Aymeric Weinbach

    Mardi 10 février : 17h45-18h30

    L'objectif de cette session est de démontrer la facilité avec laquelle il est possible de concevoir et développer des objets connectés à l'aide des solutions Azure. Des démonstrations concrètes permettront d'illustrer des cas d'usage depuis la phase de conception avec .NET Micro Framework (gadgeteer) et un robot NAO (Aldebaran).
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=097105f2-88f0-41b0-9696-04fc738a2d27
     

    BI temps réel et notifications en situation de mobilité à partir d'objets connectés

    Fréderic Gisbert et Mathias Ekizian

    Mercredi 11 février : 11h00-11h45

    Les nouveaux services cloud de Microsoft permettent d'interfacer tout type de périphériques pour créer de nouveaux services innovants. Nous l'illustrons ici au travers d'un scénario articulant toutes les couches de l'architecture à mettre en place, de la capture des données à leur restitution en situation de mobilité, le tout en temps réel.
    Le scénario ? Une framboise (device Raspberry sous distribution Raspbian) exposant une interface de saisie de la présence des élèves d'une classe de maternelle pour les instituteurs. Ces données sont synchronisées en live via les services Azure Mobile Services, puis consolidées dans un cube Analysis Services en IaaS. Les données sont exploitées d'une part en mobilité via PowerBI par le directeur de l'établissement qui connait ainsi en temps réel les statistiques de présences (et bien plus !!!) de son établissement, par les parents d'autre part qui sont avertis en temps réel via le service Azure Notification Hub et service tiers de sms de l'absence de leur enfant... et sont ainsi invités à contacter l'établissement !
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=2638470a-fd68-403b-8a6a-19c63aa700bb
     

    Hadoop et bases de données relationnelles ultra performantes : le meilleur des 2 mondes avec l'Appliance Big Data APS

    Hoda EL HADDAD et Lionel Pénuchot

    Mercredi 11 février : 12h15-13h00

    Le modèle traditionnel de traitement des données dans un système décisionnel est arrivé à maturité et atteint ses limites quant au traitement de nouveaux types de données issues des objets connectés, capteurs, données de réseaux sociaux,… Hadoop constitue une des pierres angulaires pour intégrer ces données diverses. Afin de simplifier la transition vers ces nouvelles perspectives, APS et les technologies de virtualisation tels que Polybase permettent de moderniser l'existant en toute simplicité. Dans cette session, nous allons détailler les différents scénarii d'architectures et de cas d'usages possibles pour la modernisation du système décisionnel avec l'utilisation de Polybase via des démonstrations pour répondre aux questions de type :
    1. En quoi l'utilisation d'Hadoop permet de répondre aux défis d'alimentation, de collecte des données (ETL) et d'archivage à moindre coût ?
    2. Qu'apporte Polybase dans APS avec Hadoop par rapport à un système traditionnel dans un monde où les volumes de données continuent à croitre et à se complexifier et où la consommation des données tend à être en temps réel?
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=723c2eb3-ac15-448e-a096-bcb0c4840b09
     

    La BI Microsoft en mobilité sur tous les devices

    Laurent Marzouk et Franck Mercier

    Mercredi 11 février : 12h15-13h00

    Dans un monde de plus en plus connecté, les besoins d'accéder aux applications et aux données de l'entreprise en situation de mobilité deviennent prépondérants afin d'améliorer l'efficacité des collaborateurs et les services apportés aux clients sur le terrain. Les outils de Business Intelligence n'échappent pas à cette tendance, bien au contraire. Microsoft dispose d'une offre riche en matière d'outils de reporting, qui couvrent l'ensemble des usages, mais ces outils sont souvent (à tort !) associés exclusivement à un usage sur PC dans un écosystème Microsoft. Au cours de cette session, vous verrez qu'il n'est est rien, et qu'il est aujourd'hui possible de consulter ses rapports sur n'importe quel device ! Nous aborderons également de nouveaux scénarii d'usage de la BI en mobilité liés à l'approche cloud-first, mobile-first de Microsoft, et vous montrerons comment implémenter un accès sécurisé à vos rapports grâce à la fonction MFA (Multi-Factor Authentication), ou comment disposer de l'ensemble des fonctionnalités BI d'Excel 2013 sur n'importe quelle tablette grâce à Azure RemoteApp.
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=81b61752-365f-4417-a335-cc697b848932
     

    Analyser sa maison à l'aide de Apache Storm (Big Data en Temps Réel)

    Romain Casteres et Anthony GUILLAUME

    Mercredi 11 février : 15h15-16h00

    Au travers d'un scénario de domotique construit pas à pas, venez découvrir comment, en partant de données provenant de capteurs sans fils, vous pouvez mettre en place simplement dans Microsoft Azure une solution de surveillance et de pilotage de votre maison. Ce scénario présente la mise en oeuvre d'une Lambda architecture à l'aide de Azure Event Hub, Storm pour calculer en temps réel et au fil de l'eau des indicateurs approximatifs et Hadoop pour calculer les agrégats précis et pérennes. Des outils de Data Visualisation (site web en asp.net MVC / Web API 2 / SignalR) affichent les résultats en live !
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=fac1ad7b-93f1-4dd1-9260-a68dc459589b
     

    Rendez vos objets connectés intelligents avec la "Lambda architecture"

    Benjamin Guinebertière et Franck Mercier

    Mercredi 11 février : 15h15-16h00

    Lors de cette session nous suivrons un flux de données tout au long d'un cycle de l'architecture Lambda. Dans le scénario que nous vous proposons, nous verrons comment récupérer, traiter et transformer des signaux envoyés par des capteurs de température pour les exploiter au sein de rapports en temps réel ou au sein de dashboards d'analyses.
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=77cf46fb-79e1-4790-b5d3-e868c8c51325
     

    Panorama des offres NoSQL disponibles dans Azure

    Victor Coustenoble, Vincent Heuschling et Benjamin Guinebertière

    Mercredi 11 février : 16h30-17h15

    Lors de cette session nous ferons un tour d'horizon des solutions NoSQL présentes dans Azure telles que DocumentDB, HBase, les Tables Azure, Datastax Enterprise / Cassandra, MongoDB et bien d'autres. Venez découvrir les solutions que propose Azure via des solutions natives ou via l'intégration de solutions open source ayant fait leurs preuves.
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=78634061-a656-48d4-bf93-5b8528a74946
     

    SQL Server sur Azure dans tous ses états !

    Stéphane Goudeau et Benjamin Talmard

    Mercredi 11 février : 16h30-17h15

    Découvrons les différentes options pour héberger des bases de données SQL Server sur la plateforme Microsoft Azure et les critères de décision pour vos besoins. Ce sera l'occasion d'étudier les caractéristiques et nouveautés d'Azure SQL Database et de présenter en détail les bonnes pratiques autour de SQL Server sur Azure Virtual Machine. Parmi les sujets démontrés : migration de bases existantes, géo-réplication en quelques clics, stripping de disques virtuels pour augmenter les Ios…

    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=76c91b97-5cdf-498c-970f-a4adf2adb493
     

    Azure SQL Database, approche et retours d'expérience

    Thomas Bolon et François Miermont

    Mercredi 11 février : 17h45-18h30

    Azure SQL Database est le choix de prédilection pour ceux souhaitant déléguer au maximum la gestion de SQL Server, tout en garantissant une très haute disponibilité sans perte de données. Mais à quel prix ? Au travers de l'expérience vécue lors de la migration d'une application type ERP multi-tenant depuis un mode hébergé sur machine physique vers Azure SQL Database, nous vous présenterons comment cette plateforme a évolué, quels sont les gains, ce qui change et les points à surveiller par rapport à un fonctionnement plus classique. En somme, comment bien envisager la migration de vos applications vers ce système en toute sérénité.
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=23820178-f2d1-4075-9753-2d9bffa31bf9
     

    Démystification du Machine Learning

    Benjamin Guinebertière et Thierry Rapatout

    Jeudi 12 février : 11h00-11h45

    Autour d'exemples simples, découvrons ensemble les concepts sous-jacents et les possibilités offertes par le Machine Learning. Si sans complexe vous voulez savoir ce qui se cache derrière ce « buzz word », cette session est pour vous!
    Vous vous demandez ce qu'il y a exactement derrière des termes tels que: apprentissage supervisé, classification, régression, clustering, série temporelle… Venez, aucun pré-requis n'est nécessaire!
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=35ff952e-4e56-4c76-85c4-0e046e488f37
     

    Retour d'expérience de Sarenza sur la façon de piloter un projet Power BI

    Jean-Pierre Riehl

    Jeudi 12 février : 12h15-13h00

    Le Data Steward devient incontournable dans un système de self-service BI. Mais quel est réellement son travail avec Power BI ?
    Dans cette session, nous nous mettrons dans la peau du Data Steward pendant 45 minutes et verrons comment il dompte Power BI. Gestion des sources, du Data Catalog, des questions Q&A, de la sécurité, du Data Refresh, de l'usage... Autant de sujets qui impactent le quotidien du Data Steward. Lors de cette session, vous aurez le témoignage d'un vrai Data Steward avec le retour d'expérience de Sarenza.
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=1ea82e9f-dfd0-406c-9571-2db443bc8e3d
     

    Utilisation d'Azure Machine Learning dans la détection de Spam

    Florian Eiden et David Joubert

    Jeudi 12 février : 12h15-13h00
    Cette session fait suite à la session "Démystification du Machine Learning" d'introduction aux bases du Machine Learning. Plus avancée, elle démontre la création d'un outil de détection de spam avec Azure Machine Learning à partir de mails stockés dans HDInsights ainsi que la visualisation des résultats au sein de Power BI.
    https://techdays.microsoft.fr/programmes/2015/fiche-session.aspx?ID=370396b4-8f8d-4522-89bf-bb456bb00a74
     

    Franck Mercier

    Sessions de formation gratuites :

    Pour tester Windows Server 2012, Windows 8, SQL Server 2012 et SQL Server 2014 CTP2, vous pouvez télécharger gratuitement la version d’évaluation disponible sous la forme :

    Windows Server 2012 :

    SQL Server 2012 :

    Evaluation SQL Server 2014 CTP2 :

    Evaluation Power BI :

    Testez Azure gratuitement pendant un mois :

     
     

  • Techdays 2015 : zomBIe

     

    Inscrivez-vous !

    Ils arrivent...

    Vous voulez avoir une vision globale de nos solutions Big data, objets connectés, business intelligence et passer un bon moment… Inscrivez-vous à la session « Découverte de la vision d'ensemble de la plate-forme IoT/Big Data/ML/BI de Microsoft » .

    L’ensemble du parcours “data Insight” est détaillé ici :

    http://blogs.technet.com/b/franmer/archive/2015/01/23/techdays-2015-les-sessions-du-parcours-data-insight.aspx

    Franck Mercier

    Sessions de formation gratuites :

    Pour tester Windows Server 2012, Windows 8, SQL Server 2012 et SQL Server 2014 CTP2, vous pouvez télécharger gratuitement la version d’évaluation disponible sous la forme :

    Windows Server 2012 :

    SQL Server 2012 :

    Evaluation SQL Server 2014 CTP2 :

    Evaluation Power BI :

    Testez Azure gratuitement pendant un mois :

  • Power BI et le connecteur Analysis Services

    Nous avons annoncé au mois de décembre d’importantes mises à jour autour de Power BI. Une nouvelle interface de création de rapports et de tableaux de bords, de nouveaux connecteurs afin d’élargir encore plus les sources de données accessibles, de nouvelles applications pour les appareils mobiles comme les tablettes Windows ou iPad ainsi qu’un connecteur pour récupérer les données venant d’un serveur Analysis Services tabulaire se trouvant sur site.

    Cet article traitera de cette dernière nouveauté, en illustrant pas à pas comment paramétrer le connecteur Analysis Services pour utiliser les données d’un cube tabulaire sur site dans des rapports et tableaux de bords Power BI.

    Si comme moi, vous avez essayé de cliquer sur le connecteur dès la première utilisation de la nouvelle interface de Power BI, vous avez certainement reçu le message suivant :

    Voici ci-dessous les étapes pour faire fonctionner le connecteur.

     

    Les prérequis :

    Pour monter ma démonstration, j’ai créé un compte Power BI (un compte US) : franmer.onmicrosoft.com, puis un environnement virtuel dans Azure (IaaS) avec un domaine contrôleur et un serveur Analysis Services tabulaire.

     

    Configuration de l’active directory

    Rajout du suffixe UPN

    Comme nous n’allons pas faire de fédération pour cette démo, nous allons juste rajouter le suffixe UPN (User Principal Name) de notre site Power BI dans notre annuaire Active Directory. Dans mon exemple, ce suffixe est franmer.onmicrosoft.com.

    Pour faire ce rajout, connectez-vous sur votre domaine contrôleur. Dans le menu « Tools » en haut à droite cliquez sur « Active Directory Domains and Trusts ».

    Dans la fenêtre « Active Directory Domains and Trusts », faîtes un clic droit sur « Active Directory Domains and Trusts ». Dans le menu contextuel, cliquez sur « Properties ».

    Dans le champ « Alternative UPN suffixes », entrez le suffixe de votre domaine puis cliquez sur le bouton « Add ». Cliquez ensuite sur « Ok » pour fermer la fenêtre.

     

    Rajout d’un compte Power BI et d’un compte d’installation

    Au niveau du domaine contrôleur dans « Server Manager », dans le menu « Tools », cliquez sur « Active Directory Users and Computers ».

    Dans la fenêtre « Active Directory Users and Computers », cliquez sur le bouton « Create a new user… ».

    image

    Dans la fenêtre « New Object – User », créez un compte qui correspond à celui qui se connectera au portail Power BI. Lors de la création du compte, sélectionnez le suffixe qui a été créé précédemment.

    Ci-dessous un exemple avec le compte franck@franmer.onmicrosoft.com que j’utiliserai pour me connecter au site Power BI.

    Terminez la création du compte en suivant l’assistant.

    Répétez l’opération pour créer un compte d’installation, à la différence près que vous garderez le suffixe de l’Active Directory sur site. (dans mon exemple c’est franmer.demo.com).

    Configuration d’Analysis Services

    Ajout d’un compte administrateur

    Sur la machine qui héberge le serveur Analysis Services, nous allons rajouter les comptes afin de permettre l’accès aux cubes de notre instance depuis Power BI.

    Connectez-vous à votre serveur Analysis Services via SQL Server Management Studio (SSMS).

    Faîtes un clic droit sur le nom de votre serveur et sélectionnez « Properties » dans le menu contextuel.

    Dans la fenêtre « Analysis Server Properties », dans la partie gauche, cliquez sur « Security ».

    Puis cliquez en bas sur le bouton « Add.. ». Rajoutez un compte du domaine pour lui donner les droits d’administration sur le serveur Analysis Services.

    Dans cet exemple, je rajoute le compte « Install ».

    Cliquez sur le bouton « Ok ».

    Création d’un rôle Analysis Services

    Via SSMS, déroulez le dossier « Databases ». Déroulez ensuite la base dans laquelle vous souhaitez rajouter le rôle.

    Faîtes un clic droit sur le dossier « Role », puis cliquez sur « New Role… »

    Dans la fenêtre « Role Properties – Role », donnez un nom à votre rôle. Ne cochez que la case « Read ».

    image

    Dans la partie gauche, cliquez sur « Membership ». Puis cliquez sur le bouton « Add… » en bas de la fenêtre.

    Dans la fenêtre « Select Users, Services Accounts, or Groups », rajoutez le compte qui correspond à celui que vous allez utiliser pour vous connecter à Power BI.

    Pour cet exemple, je vais rajouter le compte Franck Mercier. Attention de bien spécifier « Entire Directory » en cliquant sur le bouton « Locations… ».

    Cliquez sur le bouton « Ok ».

    Le compte apparaît maintenant dans la liste du rôle.

    Installation du connecteur

    Après avoir téléchargé le connecteur Analysis Services depuis le portail Power BI ou le lien http://www.microsoft.com/en-us/download/details.aspx?id=45333 , installez-le.

    clip_image022

    Une fois l’installation terminée, cliquez sur le bouton « Launch ».

    La configuration du connecteur s’exécute. Cliquez sur « Next »

    clip_image024

    Durant la configuration, l’assistant va vous demander de vous connecter à power BI.

    Cliquez sur « Next » .

    clip_image026

    Entrez ensuite les informations de connexion à votre serveur Analysis Services. Ici, je me connecte à l’instance qui se nomme « Tabular » avec le compte d’installation que l’on a créé précédemment. Je rentre donc l’information sous la forme : NomServeur\NomInstance.

    Cliquez sur « Next ».

    Ensuite, entrez les informations qui serviront à repérer le serveur Analysis Services dans l’interface power BI.

    Cliquez sur « Next ».

    Une fois la configuration terminée, cliquez sur « Close ».

     

    Connexion au cube depuis Power BI

    Pour réaliser le test, je me connecte sur le site Power BI (https://app.powerbi.com) avec le compte franck@franmer.onmicrosoft.com.

    Dans la partie gauche, cliquez sur « Get Data ».

    Cliquez sur « SQL Server Analysis Services », puis sur le bouton « Connect ».

    Maintenant, la liste des serveurs accessibles s’affichent :) !

    Si je sélectionne mon serveur « Tabular », j’ai accès au cube « FranmerTabular » et je peux commencer la conception d’un rapport dans la nouvelle interface de Power BI, avec des données de mon serveur Analysis Services Tabulaire qui se trouve sur site :) !!

    Pour ce faire, sélectionnez le cube puis cliquez sur « Connect ».

    La conception du rapport se faire de manière classique en sélectionnant les champs de notre cube sur la droite.

    clip_image034

    Franck Mercier

    Sessions de formation gratuites :

    Pour tester Windows Server 2012, Windows 8, SQL Server 2012 et SQL Server 2014 CTP2, vous pouvez télécharger gratuitement la version d’évaluation disponible sous la forme :

    Windows Server 2012 :

    SQL Server 2012 :

    Evaluation SQL Server 2014 CTP2 :

    Evaluation Power BI :

    Testez Azure gratuitement pendant un mois :

  • Big Data : Analyses des logs Wikipédia avec HDInsight

    Suite aux derniers évènements durant lesquels j’ai présenté notre solution HDInsight, j’ai eu beaucoup de demande concernant ma démonstration. Cet article détail pas à pas toutes les étapes pour refaire l’analyse des logs en partant de zéro.   

    HDInsight est la solution Microsoft pour faire du Big Data dans le Cloud Azure. C’est une distribution Hadoop aussi bien dans le Cloud Azure que sur Windows server (Horthonworks),  vous permettent de traiter des pétaoctets de données structurées et/ou non structurées.

    Dans cet article nous allons voir comment créer un cluster HdInsight, puis nous allons l’utiliser pour réaliser une analyse des logs Wikipédia, disponibles librement sur le site suivant :  http://dumps.wikimedia.org/other/pagecounts-raw/. L’origine de cette démonstration se trouve sur le blog de Thomas Conté qui a écrit un article alors que HDInsight était encore en “preview” (Merci Thomas Sourire).

     

    Pré-requis

    Pour réaliser cette démonstration, il vous faut un abonnement Azure. Si vous n’avez pas d’abonnement Azure, il est possible d’ouvrir un compte d’évaluation depuis ce lien : http://azure.microsoft.com/fr-fr/pricing/free-trial/

     

    Création du cluster

    Connectez-vous à votre portail Azure et cliquez sur le bouton “Nouveau”.

    Sélectionnez “Services de données”, “HDInsight”, “Hadoop”. Renseignez les informations demandées, dont la taille de du cluster.

    (En passant par “création personnalisée”, plus  d’option sont disponibles)

    image

     

    La création du cluster prend environ 15 minutes.

     

    Utilisation du cluster

    Une fois le cluster créé, il devient accessible depuis le portail Azure. Sur la partie gauche du portail, cliqué sur “HDINSIGHT”.

    Cliquez ensuite sur le nom de votre cluster. Pour illustrer cet exemple, je vais utiliser le cluster “franmerdemo”.

    image

     

    Gérer le cluster

    Après avoir cliqué sur le nom du cluster, le tableau de bord du cluster apparaît.

    Si vous cliquez sur le bouton “Gérer le cluster”, une fenêtre de gestion apparaît à partir de laquelle vous y trouverez des exemples d’utilisations ainsi qu’un Editeur Hive, permettant de requête vos données dans un langage proche de SQL qui est HiveSQL.

    image

     

    Configuration

    Le menu “Configuration” permet le paramétrage de l’accès distant au nœud de tête du cluster HDInsight. En bas de la page, cliquez sur “Activez Distant” (y’a mieux comme traduction, je vous l’accorde Sourire)

    image

     

    après avoir cliquez sur le bouton, la fenêtre “Configurer le bureau à distance” apparaît. Renseignez les informations et définissez une date d’expiration de cette connexion à distance. Cette date ne peut excéder 7 jours après la date de création.

     

    image

     

    Après validation, la connexion à distance est disponible au bout d’environ une minute. Cliquez sur le bouton “Connecter

    image

    La fenêtre “Remote Desktop Connection” apparaît. Cliquez sur “Connect”. 

    image

     

    Puis dans la fenêtre “Windows Security”, entrez les informations de connexion puis cliquez sur “Ok”.

    image

    Au bout de quelques secondes, vous serez connecté sur le nœud de tête de votre cluster HDInsight !

    image

    Récupération des données

    Donc, comme évoqué en début d’article, nous allons récupérer les données venant du site de logs de Wikipédia. et plus précisément, nous allons sur la page où les logs sont regroupés par fichiers représentants les logs par heure : http://dumps.wikimedia.org/other/pagecounts-raw/2014/2014-10/

    Afin de facilité le rapatriement des données sur notre cluster, nous allons automatiser la copie via un script PowerShell :

    $wc = New-Object System.Net.WebClient
    foreach ($i in 0..23) {
        $n = "{0:D2}" -f $i
        echo $n
        $url = "http://dumps.wikimedia.org/other/pagecounts-raw/2014/2014-10/pagecounts-20141023-" + $n + "0000.gz"
         $wc.DownloadFile($url, [System.IO.Path]::Combine($pwd.Path, $url.SubString($url.LastIndexOf("/")+1)))
    }

     

    Dans notre cluster HDInsight, nous allons créer un dossier, puis un fichier texte, dans lequel nous allons copier le script PowerShell. après avoir sauvegarder ce fichier texte, nous allons remplacer l’extension du fichier texte (txt) par “ps1”. Si l’extension du fichier, n’est pas visible, depuis l’explorateur, cliquez sur l’onglet “View” puis cocher la case “File Name Extension”.

    image

    Une fois le fichier “ps1” créé, exécutez-le. Par exemple, faîtes un clic droit sur le fichier, puis dans le menu contextuel cliquez sur “Run with PowerShell”.

    image

    Les fichiers sont alors copiés dans votre cluster :

    image 

     

    Copie des données dans le stockage Azure

    Une fois la copie terminée, vous devez avoir récupéré les 24 fichiers du 23 Octobre 2014. Pour le moment ces fichiers sont copiés sur le stockage local du cluster. Nous allons maintenant les copier sur un stockage Azure afin de pouvoir conserver les informations, même après la destruction du cluster une fois les traitements terminés.

    Double-cliquez sur l’icône “Hadoop Command Line”. La fenêtre “Hadoop Command Line” s’ouvre.

    image

    Entrez la ligne de commande : cd %pig_home%. Vous devez vous retrouver maintenant à la racine de “Pig”

    image

    Changez de répertoire pour se placer dans le répertoire bin. Entrez la commande  “cd bin”

    image

    Une fois dans le répertoire “bin” entrez la commande “pig”.

    image

    .

    Le cochon étant poli, il vous répond “grunt” Sourire.

    Etant maintenant dans le langage Pig Latin, nous allons utiliser la commande suivante pour copier nos fichiers locaux (stockés dans le cluster) dans un conteneur Azure :

    CopyFromLocal C:\wp1023 .\LogsWP

    Attention à ne pas oublier le point “.”. Cela signifie la racine sous le dossier de l’utilisateur connecté au cluster. Dans notre cas, les fichiers seront copiés dans le stockage Azure dans Demo\LogsWP.

    image

     

    Si on regarde côté stockage Azure avec un outil tel que “CloudXplorer”, voici où sont stockés nos fichiers :

     

    image

    Traitement des données avec PIG

    Maintenant, nous allons traités les fichiers “.gz” pour en extraire les données et les formater afin de les rendre lisible et exploitable avec des outils simple et familier comme Excel.

    Toujours depuis notre cluster HdInsight, depuis la fenêtre de ligne de commandes en PIG, nous allons exécuter le script suivant

     

    records = load '/user/demo/LogsWP/pagecounts-20141023-*.gz' using PigStorage(' ') as (project:chararray, page:chararray, requests:int, size:int);
    filtered_records = filter records by (project == 'en') or (project == 'fr');
    records_by_page = group filtered_records by (page, project);
    sum_pages = foreach records_by_page generate group, SUM(filtered_records.requests);
    result = order sum_pages by $1 desc;
    result_limit = limit result 1000;
    store result_limit into 'wp_October_23';

    Pig Latin est un langage procédural, ce qui signifie que les instructions vont être traitées les unes à la suite des autres et chaque résultat des traitements vont être stockés dans une variable.

    La première ligne du script charge les données dans la variable “records”, et donne les informations sur la manière de “parser” les données. Ici, les données sont séparées par des espaces et nous allons définir 4 colonnes (ainsi que le type): Project, Page, Requests (nombre de hit sur la page qui ici sera toujours égale à &), size (taille de la page).

    records = load '/user/demo/LogsWP/pagecounts-20141023-*.gz' using PigStorage(' ') as (project:chararray, page:chararray, requests:int, size:int);

     

    La deuxième ligne du script va filtrer les données venant de la variable “records” pour ne conserver que les pages Françaises et Anglaises :

    filtered_records = filter records by (project == 'en') or (project == 'fr');

     

    La troisième ligne va réaliser un groupement par pages et par langue, afin d’agréger les données à la journée :

    records_by_page = group filtered_records by (page, project);

     

    La quatrième ligne va comptabiliser le nombre de fois la même page a été consultée :

    sum_pages = foreach records_by_page generate group, SUM(filtered_records.requests);

     

    La cinquième ligne va ordonnées les pages de la plus vue à la moins vue :

    result = order sum_pages by $1 desc;

     

    La sixième ligne va limiter le résultat au 1000 premières lignes pour éviter de se retrouver avec des pages avec 1 seul hit.

    result_limit = limit result 1000;

     

    Enfin, la septième ligne va enregistrer le résultat dans un fichier stocké dans notre conteneur Azure.

    store result_limit into 'wp_October_23';

     

    Dans la console, faîtes un simple copier coller du script. Puis appuyez sur la touche “Enter” du clavier.

    image

    Au bout de quelques minutes le traitement est terminé :

    image

     

    Et le fichier est disponible dans notre conteneur Azure sous le nom de part-r-00000.

    image

    Exploitation des résultats

    En fait, à ce stade du traitement on est bien content d’avoir un fichier contenant nos résultats dans notre conteneur Azure. La question légitime est : “On en fait quoi!”. Et bien, la réponse est : “On va l’ouvrir dans Excel” Sourire. Et plus précisément avec Power Query!

    Depuis Excel, dans l’onglet Power Query, cliquez sur “From Other Sources”, puis sur “From Microsoft Azure HDInsight

    image

     

    Dans la fenêtre “Microsoft Azure HDInsight”, renseignez le nom du compte stockage de votre cluster HDInsight.

    image

    Pour info, vous pouvez récupérer le nom du compte de stockage lié dans le tableau de bord de votre cluster HDInsight.

    image

    Si vous vous connectez depuis la première fois depuis Power Query à votre compte de stockage, il va vous demander votre “Account Key” :

    image

     

    Cette clef peut se récupérer depuis le tableau de bord de votre compte de stockage en cliquant sur “Gérer les clés d’accès” :

    image

     

    Dans la fenêtre “Gérer les clés d’accès”, copiez une des clefs

    image

     

    Puis collez la clef dans Excel et cliquez sur le bouton “Save”

    image

     

    Une fois connecté à notre compte de stockage, les différents conteneur sont visibles dans la partie droite d’Excel. Dans notre cas nous allons choisir le conteneur “franmerdemo”.

    image

     

    Après avoir double-cliqué sur le nom du conteneur, son contenu s’affiche s’affiche dans Power Query. retrouvez le fichier part-r-00000 (vous pouvez faire un tri sur la colonne date par exemple). Cliquez sur “Binary” dans la colonne “Content”.

    image

    Après avoir cliqué sur “Binary”, Power Query ouvre le fichier. Ci-dessous un aperçu du fichier :

    image

     

    Nous allons faire un nettoyage du fichier. Comme il y a déjà eu de nombreux articles sur Power Query, je vais aller très vite sur cette partie. En bref, je vais renommer les colonnes, créer une colonne pour la langue des pages et nettoyer les données. Voici une copie d’écran après un passage des données à travers Power Query :

    image

    Nous allons maintenant cliquez sur “Close and Load” pour envoyer les données dans une feuille Excel.

    image 

    Une fois les données chargés dans une feuille Excel, nous allons les exploiter dans un tableau croisé dynamique. Cliquez sur une cellule du tableau, puis dans le menu “Insert” cliquez sur “Pivot Table”.

     

    image

    Dans la fenêtre “Create PivotTable”, cliquez sur “Ok”.

    image

     

    A partir de là, vous pouvez créer un beau tableau croisé dynamique.

    image

     

    Ci dessous un exemple de tableau fini avec un segment permettant de filtrer sur la langue des pages.

    image

    Comme j’ai eu la question durant ma démonstration, pour rappel voici comment créer un segment (slicer). Lors de la création de votre tableau croisé dynamique, faîtes un clic droit sur le champ que vous souhaitez rajouter comme segment, puis cliquez sur “Add as Slicer”. Ultra simple….quand on sait Sourire

    image

     

    Franck Mercier

    Sessions de formation gratuites :

    Pour tester Windows Server 2012, Windows 8, SQL Server 2012 et SQL Server 2014 CTP2, vous pouvez télécharger gratuitement la version d’évaluation disponible sous la forme :

    Windows Server 2012 :

    SQL Server 2012 :

    Evaluation SQL Server 2014 CTP2 :

    Evaluation Power BI :

    Testez Azure gratuitement pendant un mois :