TechNet Blog Deutschland

News für IT-Pros & Neues aus dem TechNet-Team

September, 2014

  • Ein Blick in die Zukunft: Trustworthy Computing

    Übersetzter Gastbeitrag von Scott Charney – Corporate Vice President, Trustworthy Computing

    Als Bill Gates 2002 die Initiative Trustworthy Computing ins Leben rief, war er von einem fest überzeugt: Wenn wir wirklich zu fundamentalen Veränderungen bei unseren Produkten kommen wollen, müssen wir auch unsere Prozesse und unsere Kultur verändern. Damit diese Veränderungen tatsächlich geschehen, wurde eine zentrale Gruppe damit beauftragt, die Pionierrolle in dieser Initiative zu übernehmen. Beim zehnjährigen Jubiläum im Jahr 2012 zeigten sich die erreichten Fortschritte in vielerlei Hinsicht. Ein wesentliches Ergebnis ist, dass es im ganzen Unternehmen mittlerweile zahlreiche entsprechende Spezialisten und Verfahren gibt. Heute befasst sich jede Gruppe bei Microsoft intensiv mit diesen Fragen und arbeitet an innovativen Lösungen in Sachen Sicherheit, Datenschutz und Zuverlässigkeit.

    Aber seit 2002 hat sich die Welt enorm verändert. Mit der Zunahme von Advanced Persistent Threats (APTs), von Cyber-Aktivitäten durch Nationalstaaten und angesichts einer vom Prinzip „Mobile first, Cloud first“ geprägten Welt reichen Sicherheitsprozesse einfach nicht mehr aus, die einst für Paketprodukte mit einem Auslieferungszyklus von drei Jahren entwickelt wurden. Oder anders formuliert: Da die Sicherheit geradezu in unserer DNA verwurzelt ist, lautet die Frage nun, wie wir sie in einer Mobile-first-, Cloud-first-Welt mit neuen Entwicklungskadenzen (z. B. Flighting, Test-in-Production) und angesichts neuer Bedrohungen (z. B. APTs durch Nationalstaaten) verbessern können. Aus meiner Sicht bedarf es dazu zwar weiterhin eines gewissen Levels an zentralisierten Tools und Übersicht, doch das reicht einfach nicht aus.

    Trustworthy Computing bleibt also eine kritische Komponente in Microsofts Versprechen an unsere Kunden. Damit wir das Unternehmen sind, das unsere Kunden brauchen, müssen wir in der Lage sein, die bewährten Prozesse beizubehalten, sie aber gleichzeitig an diese neue Welt anzupassen. Die Veränderungen der letzten Woche haben bestätigt, dass unsere Mission kritisch bleibt. Und sie wird uns helfen, in den kommenden Jahren noch wirkungsvoller zu sein, indem wir unsere Arbeitsweise vereinfachen, unsere Agilität verbessern, mehr Verantwortlichkeit anstreben sowie schlankere und effizientere Support-Modelle schaffen.

    Durch Konsolidierung der Arbeit innerhalb des Unternehmens und Änderung einiger Berichtsstrukturen wird Microsoft in der Lage sein, viele Entscheidungen zu Fragen des Vertrauensschutzes schneller zu treffen und Pläne mit größerem Tempo umzusetzen – sei es mit dem Ziel, unseren Kunden Innovationen verfügbar zu machen, unsere Engineering-Systeme zu verbessern, die Compliance mit Vorschriften oder Unternehmensrichtlinien zu gewährleisten oder unsere Zusammenarbeit mit den Regulierungsbehörden rund um den Globus zu optimieren.

    Ich werde weiterhin an der Spitze des Trustworthy Computing Teams stehen, das nun beim neuen Geschäftsbereich Cloud & Enterprise angesiedelt ist. Maßgeblich ist, dass Trustworthy Computing weiterhin die unternehmensweite Verantwortung für zentral ausgelegte Programme wie Security Development Lifecycle (SDL) und Online Security Assurance (OSA) behält. Diese Veränderungen werden es uns aber auch ermöglichen, uns noch intensiver im Geschäftsbereich Engineering zu engagieren, der die größte Verantwortung für die Zukunft von Cloud und Sicherheit trägt. Gleichzeitig werden wir die Wirkung unserer entscheidenden Arbeit auf Datenschutzfragen weiter erhöhen, indem wir solche Funktionen direkt in die entsprechenden Engineering- und rechtspolitischen Abteilungen integrieren.

    Lassen Sie mich mit einer wichtigen Bemerkung schließen: Ich bin der Architekt dieser Veränderungen. Es geht dabei nicht um einen Verlust an Fokussiertheit des Unternehmens oder um ein Nachlassen unseres Engagements. Vielmehr sind diese Veränderungen aus meiner Sicht notwendig, wenn wir beim Vertrauen in das Computing wirklich vorankommen wollen. Als ich 2002 zu Microsoft kam, ging es gerade darum, die Blutungen zu stillen, das Ökosystem zu heilen und – wenn ich das so sagen darf – manchmal auch darum, weiterhin ganz vorne mithalten zu können. Doch in der Zukunft wäre es angesichts neuer Entwicklungskadenzen und einer Mobile-first-, Cloud-first-Welt gefährlich, sich auf vergangene Paradigmen zu verlassen, die für eine ganz andere Umgebung geschaffen wurden. Natürlich bin ich stolz auf unsere Vergangenheit, aber wir müssen für die Zukunft planen.

     

  • Microsofts Trustworthy Computing: Wichtig wie eh und je

    Wie den Medien, unter anderem heise security zu entnehmen ist, gibt es Änderungen rund um unsere zentrale Sicherheitsgruppe Trustworthy Computing Group (TwC). Diese Änderungen haben keinerlei Einfluss darauf, dass IT-Sicherheit natürlich weiterhin von fundamentaler Bedeutung für Microsoft – und die übrige IT-Industrie – sein wird. Die Umstrukturierungen stehen also nicht für eine sinkende Relevanz des Themas. Im Gegenteil: Vielmehr wollen wir durch das Aufteilen der bisherigen Teilbereiche von TwC für kürzere Wege und raschere Entscheidungen sorgen. Trustworthy Computing gehört also weiterhin zu den Versprechen, die wir unseren Kunden machen.

    Aber Änderungen sind nötig. Denn wir bewegen uns schnell weg von einer Welt, in der auf CD/DVD gepresste Softwareprodukte in Schachteln verkauft wurden, die anschließend quasi unverändert für einige Jahre auf den Rechnern der Kunden liefen. Heute sind wir in einer Welt, in der vieles in der Cloud und vieles auf mobilen Endgeräten stattfindet. Die hierfür benötigte Software wird auf andere Arten gepflegt als dies früher der Fall war. Somit ist es auch Zeit für andere Prozesse zur Sicherung der Software.

    Ein großer der Teil der heute unter dem Dach von TwC angesiedelten Teams gehört samt dem Leiter der Trustworthy Computing Group, Scott Charney, ab sofort zu unserem Bereich Cloud & Enterprise (C &E). Scott wird die Teams weiterhin führen wie gewohnt und gehört ab sofort zu den Führungskräften von Cloud & Enterprise. Die bislang zur Engineering Excellence-Gruppe von Trustworthy Computing gehörenden Mitarbeiter arbeiten nun in der Developer Division von Microsoft.

    Zu den ab sofort bei C&E angesiedelten Teams gehören unter anderem:

    • Microsoft Security
    • Zertifizierung und Compliance
    • Data, Operations und Technik (DOT)
    • Global Readiness

    Die bisherigen TwC-Führungskräfte wie Matt Thomlinson, John Lambert, Paul Nicholas oder Chris Betz werden auch weiterhin Verantwortung für ihre Mitarbeiter tragen. Einzig der Bereich Network Security gehört ab sofort zu unserer Abteilung Legal and Corporate Affairs, da diese Kollegen sehr viel mit Strafverfolgern weltweit zusammen arbeiten. Unverändert weiter laufen wird auch die Kommunikation rund um unsere sämtlichen Sicherheitsprozesse, darunter auch die am Update-Dienstag veröffentlichten Bulletins.

    Weitere Details zu den Veränderungen, den hierfür verantwortlichen Gründen und Gedanken rund um die Rolle von IT-Sicherheit bei Microsoft liefert die folgende Nachricht vom TwC-Leiter Scott Charney (veröffentlicht am 22. September 2014): 

    Ein Blick in die Zukunft: Trustworthy Computing

    Als Bill Gates 2002 die Initiative Trustworthy Computing ins Leben rief, war er von einem fest überzeugt: Wenn wir wirklich zu fundamentalen Veränderungen bei unseren Produkten kommen wollen, müssen wir auch unsere Prozesse und unsere Kultur verändern. Damit diese Veränderungen tatsächlich geschehen, wurde eine zentrale Gruppe damit beauftragt, die Pionierrolle in dieser Initiative zu übernehmen. Beim zehnjährigen Jubiläum im Jahr 2012 zeigten sich die erreichten Fortschritte in vielerlei Hinsicht. Ein wesentliches Ergebnis ist, dass es im ganzen Unternehmen mittlerweile zahlreiche entsprechende Spezialisten und Verfahren gibt. Heute befasst sich jede Gruppe bei Microsoft intensiv mit diesen Fragen und arbeitet an innovativen Lösungen in Sachen Sicherheit, Datenschutz und Zuverlässigkeit.

    Aber seit 2002 hat sich die Welt enorm verändert. Mit der Zunahme von Advanced Persistent Threats (APTs), von Cyber-Aktivitäten durch Nationalstaaten und angesichts einer vom Prinzip „Mobile first, Cloud first“ geprägten Welt reichen Sicherheitsprozesse einfach nicht mehr aus, die einst für Paketprodukte mit einem Auslieferungszyklus von drei Jahren entwickelt wurden. Oder anders formuliert: Da die Sicherheit geradezu in unserer DNA verwurzelt ist, lautet die Frage nun, wie wir sie in einer Mobile-first-, Cloud-first-Welt mit neuen Entwicklungskadenzen (z. B. Flighting, Test-in-Production) und angesichts neuer Bedrohungen (z. B. APTs durch Nationalstaaten) verbessern können. Aus meiner Sicht bedarf es dazu zwar weiterhin eines gewissen Levels an zentralisierten Tools und Übersicht, doch das reicht einfach nicht aus.

    Trustworthy Computing bleibt also eine kritische Komponente in Microsofts Versprechen an unsere Kunden. Damit wir das Unternehmen sind, das unsere Kunden brauchen, müssen wir in der Lage sein, die bewährten Prozesse beizubehalten, sie aber gleichzeitig an diese neue Welt anzupassen. Die Veränderungen der letzten Woche haben bestätigt, dass unsere Mission kritisch bleibt. Und sie wird uns helfen, in den kommenden Jahren noch wirkungsvoller zu sein, indem wir unsere Arbeitsweise vereinfachen, unsere Agilität verbessern, mehr Verantwortlichkeit anstreben sowie schlankere und effizientere Support-Modelle schaffen.

    Durch Konsolidierung der Arbeit innerhalb des Unternehmens und Änderung einiger Berichtsstrukturen wird Microsoft in der Lage sein, viele Entscheidungen zu Fragen des Vertrauensschutzes schneller zu treffen und Pläne mit größerem Tempo umzusetzen – sei es mit dem Ziel, unseren Kunden Innovationen verfügbar zu machen, unsere Engineering-Systeme zu verbessern, die Compliance mit Vorschriften oder Unternehmensrichtlinien zu gewährleisten oder unsere Zusammenarbeit mit den Regulierungsbehörden rund um den Globus zu optimieren.

    Ich werde weiterhin an der Spitze des Trustworthy Computing Teams stehen, das nun beim neuen Geschäftsbereich Cloud & Enterprise angesiedelt ist. Maßgeblich ist, dass Trustworthy Computing weiterhin die unternehmensweite Verantwortung für zentral ausgelegte Programme wie Security Development Lifecycle (SDL) und Online Security Assurance (OSA) behält. Diese Veränderungen werden es uns aber auch ermöglichen, uns noch intensiver im Geschäftsbereich Engineering zu engagieren, der die größte Verantwortung für die Zukunft von Cloud und Sicherheit trägt. Gleichzeitig werden wir die Wirkung unserer entscheidenden Arbeit auf Datenschutzfragen weiter erhöhen, indem wir solche Funktionen direkt in die entsprechenden Engineering- und rechtspolitischen Abteilungen integrieren.

    Lassen Sie mich mit einer wichtigen Bemerkung schließen: Ich bin der Architekt dieser Veränderungen. Es geht dabei nicht um einen Verlust an Fokussiertheit des Unternehmens oder um ein Nachlassen unseres Engagements. Vielmehr sind diese Veränderungen aus meiner Sicht notwendig, wenn wir beim Vertrauen in das Computing wirklich vorankommen wollen. Als ich 2002 zu Microsoft kam, ging es gerade darum, die Blutungen zu stillen, das Ökosystem zu heilen und – wenn ich das so sagen darf – manchmal auch darum, weiterhin ganz vorne mithalten zu können. Doch in der Zukunft wäre es angesichts neuer Entwicklungskadenzen und einer Mobile-first-, Cloud-first-Welt gefährlich, sich auf vergangene Paradigmen zu verlassen, die für eine ganz andere Umgebung geschaffen wurden. Natürlich bin ich stolz auf unsere Vergangenheit, aber wir müssen für die Zukunft planen.

    Scott Charney, Corporate Vice President, Trustworthy Computing

    Gastbeitrag von Michael Kranawetter, Chief Security Advisor (CSA) bei Microsoft in Deutschland. In seinem eigenen Blog veröffentlicht Michael alles Wissenswerte rund um Schwachstellen in Microsoft-Produkten und die veröffentlichten Softwareupdates. 

  • Botnetz-Aufbau: Tonnenweise Webseiten nur für 24 Stunden online

    Laut einer aktuellen Studie der IT-Sicherheitsfachleute von Blue Coat Systems bestehen 71 Prozent aller Host-Namen nur maximal 24 Stunden. Die Kurzzeit-Websites werden dabei häufig von kriminellen Hackern zum Aufbau von Botnetzen genutzt. Außerdem lassen sich durch neue Subdomains gängige Filtertechniken umgehen.

    Im Rahmen der Studie hat Blue Coat 660 Millionen einzigartige Host-Namen geprüft - URLs, Sub-Domains und weitere Unterseiten dieser „Eintagsseiten“. Ergebnis: Innerhalb von 90 Tagen existierten 470 Millionen Host-Namen nur maximal einen Tag lang. Unter den Top 50 der übergeordneten Domains enthielt jede fünfte (22 Prozent) Schadprogramme.

    Neben vielen legalen Anbietern erzeugen Malnet-Betreiber eine hohe Anzahl an Subdomains auf vergleichsweise wenigen Domains. Dies ermöglicht laut Blue Coat das einfache Hinzufügen neuer Bots und eine langfristige Nutzung des Botnets. Ein-Tages-Domains lassen sich auch dazu nutzen, einzigartige Subdomains für jede Spam-Mail zu erzeugen und damit entsprechende Filter zu umgehen.

    Der aktivste Erzeuger von gefährlichen Subdomains liegt bereits auf Platz 12 der Liste aller Domains, die am meisten „Eintagsseiten” herausbringen. Es handelt sich hier um einen Command-and-Control-Server für einen Trojaner-Dialer. Er erzeugte in 90 Tagen mehr als 1,3 Millionen Subdomains. Laut Studie sind zehn weitere ähnliche Domains ebenfalls extrem aktiv.

    Die große Mehrheit der kurzlebigen Websites ist legal und stellt keine Gefahr dar, stellt die Studie fest. Sie werden etwa im Zusammenhang mit Content Delivery Networks oder Blogging-Plattformen, aber auch Pornografie-Angeboten eingesetzt. Die große Masse legaler Websites bietet aber gefährlichen Domains eine gute Deckung.

    Die meisten „Eintagsfliegen“ werden unter der Top-Level-Domain .com (72 Prozent) registriert, gefolgt von .net (18 Prozent) und .info (1,8 Prozent). Obwohl .de bereits an vierter Stelle liegt, ist der Anteil mit 0,77 Prozent relativ gering.

    Nach Domain erzeugt Google unter .gstatic.com fast die Hälfte aller kurzlebigen Websites (46,5 Prozent), vor einem Unternehmen für Web-Performance-Optimierung (.cedexis-radar.net: 5,5 Prozent) und Amazon (.cloudfront.net: 4,6 Prozent). 

    Bei den Ländern führen die USA (29 Prozent) vor China (11 Prozent) und Japan (4,6 Prozent), auf Platz 8 liegt Deutschland mit 3 Prozent.

    Gastbeitrag von Michael Kranawetter, Chief Security Advisor (CSA) bei Microsoft in Deutschland. In seinem eigenen Blog veröffentlicht Michael alles Wissenswerte rund um Schwachstellen in Microsoft-Produkten und die veröffentlichten Softwareupdates. 

  • TechNet Newsflash Ausgabe 18/2014

    Liebe Podcast-Zuhörer,

    der Podcast Ausgabe 18/2014 des TechNet Newsflash ist live.

    http://download.microsoft.com/download/B/5/6/B56DB709-07CA-4DE3-8F90-3CB99A2C01DD/TechNetFlash_18-2014.mp3

    Link zum TechNet Newsflash in Schriftform:

    http://www.microsoft.com/germany/technet/newsflash/aktuell.htm

    Link zum RSS Feed:

    http://www.microsoft.com/feeds/technet/de-de/newsflash/tn_flash_podcast_archiv.xml

    Wie immer: viel Freude beim Zuhören und späteren Durchstöbern der angekündigten Ressourcen!

    Euer TechNet-Team!

    ☁ Heike

  • Das neue Surface Pro 3 - optimiert fürs Business durch leichte Bereitstellung und starke Performance

    Das neue Surface Pro 3 ist ideal, wenn Ihre Mitarbeiter zwar ein Tablet wollen, aber einen Laptop brauchen. Mit seiner Ausstattung und seinen Features erfüllt es alle Anforderungen an ein business-fähiges Tablet und ist für den Einsatz im Unternehmen optimiert.

     

    Deployment leicht gemacht – Das Deployment ist über die USB 3.0 Schnittstelle so einfach zu lösen, wie mit keinem anderen Tablet. Mit den beiden Technologien Microsoft Deployment Toolkit 2013 Server und Windows Server 2012 R2 WDS Server ist die Bereitstellung von Windows 8.1 Enterprise X64 Update in wenigen Schritten vorbereitet und durchgeführt. Mit dem PXE Boot eines MDT 2013 Lite Touch Images direkt vom WDS Server integriert sich das Surface Pro 3 nahtlos und einfach in die bestehende IT-Infrastruktur.

    Für Unternehmen optimiert – Mit der Docking Station kann das Surface Pro 3 jeden Desktop-PC ersetzen. Das 12“-HD-Display ist sowohl kompakt als auch im vorteilhaften 3:2-Format. Ein unschlagbares Duo bilden der Surface Pen und OneNote. Auf Konferenzen und in Meetings lassen sich hier im Handumdrehen Notizen machen und Fotos ablegen. Mit dem integrierten TPM-Chip können außerdem virtuelle SmartCards auf dem Surface Pro 3 anlegen.

    Performance ohne Einschränkung – Die drei frei wählbaren, performanten Prozessoren (Intel i3, i5 und i7). ermöglichen Ihren Mitarbeitern produktives Arbeiten im Büro, zu Hause aus und unterwegs. Mit der Smartphone-Pairing-Funktion verbindet sich das Surface mit einem einzigen Klick mit dem Internet. Das Einschalten des Tetherings auf dem Smartphone und die Anschaffung einer zweiten SIM-Card entfallen. Surface und Smartphone sind über den Bluetooth 4.0 Standard mit der energiesparenden Low Energy-Technologie verbunden. Das schont den Akku und trägt dazu bei, dass das Surface jeden Betriebsdauer-Vergleich mit einem herkömmlichen Laptop um Längen gewinnt.

    Erste Eindrücke – Unsere Community Expertin Martina Grom hat das Surface Pro 3 sofort für Sie getestet und ihre Eindrücke in einem Blogbeitrag festgehalten. Ihr Fazit: Es ist schnell und macht Spaß.


    Das Surface Pro 3 ist für Geschäftskunde ab sofort erhältlich – Informieren Sie sich bei Ihrem autorisierten Reseller

  • Neue Datenschutz-Funktionen in Microsofts Azure SQL Database

    Azures SQL Datenbank ist ab sofort mit neuen Funktionen wie Auditing, Geo-Replication und Geo-Restore ausgestattet, die für einen stark verbesserten Datenschutz sorgen. 

    Die neuen Funktionen sind  im Detail:

    1. Auditing

      Auditing trackt und dokumentiert alle Ereignisse, die innerhalb der Datenbank auftreten. zum Beispiel Updates und Abfragen. Reports und alle wichtige Infos zur Datenbank werden direkt im Dashboard angezeigt. So hat der Nutzer stets den Überblick über alle relevanten Aktivitäten und kann Trends und Anomalien schneller erkennen. 
      Neu sind auch Überwachungsfunktionen, die anzeigen, was in der Datenbank passiert und die Trends, Diskrepanzen und Anomalien aufzeigen. Diese dienen dazu, frühzeitig auf Sicherheitsrisiken oder verdächtige Sicherheitsverletzungen aufmerksam zu machen.
      Alle Audit-Events werden in ein Audit-Log geschrieben und in einem optionalen Azure Storage Account gespeichert, den der Nutzer selbst bestimmen kann.
    2. Geo-Replication
      Mit Geo-Replication können Anwender einen zusätzlichen Microsoft-Service nutzen, der eine zweite, laufend aktualisierte Datenbank bereitstellt – ideal für Notfälle. Die Azure-Regionen sind räumlich mindestens 500 Meilen (805 Kilometer) von einander entfernt, was für eine hohe Daten-Souveränität bei politischen Zwischenfällen sorgt. Geo-Replication ist verfügbar für Standard- und Premium-Datenbanken über das Azure Management Portal und die Standard APIs. In der Standard-Variante kostet die zweite Datenbank 75 Prozent der ersten Datenbank.
    3. Geo-Restore
      Das Feature wurde entworfen, um eine schnelle Daten-Wiederherstellung zu ermöglichen, wenn sie am dringendsten gebraucht wird: nach einem kritischen Zwischenfall. So lässt sich beispielsweise per Geo-Restore eine Datenbank wiederherstellen und retten, unabhängig davon, in welcher Azure-Region der Zwischenfall aufgetreten ist.
      Geo-Restore ist verfügbar in der Basic, Standard und Premium-Version von Azure über das Azure Management Portal und die Standard-API.

    Weitere Infos zu den technischen Details finden sich im Microsoft Azure Blog.

     Gastbeitrag von Michael Kranawetter, Chief Security Advisor (CSA) bei Microsoft in Deutschland. In seinem eigenen Blog veröffentlicht Michael alles Wissenswerte rund um Schwachstellen in Microsoft-Produkten und die veröffentlichten Softwareupdates. 

  • So behalten Sie Kontrolle über ihren SharePoint

    Dieser Gastbeitrag wurde uns freundlicherweise von der AvePoint Deutschland GmbH zur Verfügung gestellt. Autor ist Robert Mulsow.

     

    Mit Sicherheit kennen Sie diese Situation: Ein selbsternannter „Power-User“ hat bestimmte Veränderungen in einer Site Collection vorgenommen und nun fehlen Daten und Features oder ein weiterer Nutzer hat plötzlich zu viele oder zu wenige Berechtigungen. Als SharePoint Administrator sind Sie nun in der Pflicht, die vorgenommenen Änderungen zu identifizieren und zurück zu setzen.

    Je nachdem, wie Sie Vorgänge in SharePoint aufzeichnen, kann das Auffinden und Zurücksetzen durchgeführter Änderungen schnell gehen. Dennoch bringt dieser Vorgang eine Unterbrechung für betroffene Nutzer mit sich und Sie als Administrator können sich nicht um wichtigere Projekte kümmern. Außerdem können Daten ohne Backup auch unwiderruflich gelöscht worden sein. Es macht somit Sinn, Vorgänge nicht nur aufzuzeichnen, sondern service-kritische Funktionalitäten pro-aktiv zu schützen.

    Was sind nun solche kritischen Funktionen, die man überwachen und schützen sollte? Aufgrund unterschiedlicher Unternehmensrichtlinien, des Zwecks der SharePoint Farmen und der genutzten Anwendungen kann man nicht pauschal sagen, welche bestimmten Funktionalitäten die wichtigsten sind. Basierend auf Erfahrungsberichten bei verschiedenen Großkunden vor Ort, lassen sich folgende Situationen besonders häufig feststellen:

    Inhalte werden aus Versehen gelöscht

    Basierend auf Quota-Vorlagen und den Einstellungen für die Leerung der SharePoint Papierkörbe (Site + Site Collection), kann ein Objekt schnell komplett aus dem SharePoint entfernt werden. Sollte es immerhin noch im Papierkorb auffindbar sein, könnten dennoch bereits bestimmte Metadaten bzw. Anpassungen vom Objekt entfernt worden sein. Dies kann der Fall sein, da solche Metadaten nicht vom SharePoint Papierkorb verwaltet werden können (z.B. SharePoint Designer Anpassungen). Daher sollten Löschvorgänge genau kontrolliert werden.

    Es werden zu viele Berechtigungen vergeben oder geändert

    Sehr häufig werden in Unternehmen an zu viele Mitarbeiter „Full Control“ Rechte vergeben. Dies stellt nicht nur ein Compliance Problem dar. Auch die Fehlerwahrscheinlich und -häufigkeit wird erhöht, da man mit solchen Rechten, auch unwissentlich, mit einem falschen Klick sehr kritische Funktionen lahm legen kann

    Wie kommt es zu einer derartigen Situation? Der Zustand ist von den Administratoren selbst initiiert, um schnell Nutzeranfragen vom Tisch zu haben. Um Zeit zu sparen werden kurzerhand kurzerhand „Full Control“ Rechte vergeben, anstatt sich mühsam und zeitaufwendig durch die einzelnen SharePoint Seiten und Gruppen zu klicken, um dann nur die tatsächlich erforderlichen Rechte zuzuweisen.

    Ist ein Endanwender erst einmal Site oder Site Collection Administrator, besitzt er das „Full Control“ Recht. Oft sind diese Anwender jedoch Projekt Manager oder fachliche Vorgesetzte, dieentweder keine Zeit für die Seitenadministration haben oder denen es am nötigen IT- bzw. SharePoint Wissen mangelt. So wird das „Full Control“ Recht gerne einmal an den Praktikanten oder den Werksstudenten mit IT-Hintergrund weiter gegeben. Dieser vergibt es dann wiederum an weitere Personen, die es wiederum an andere Kollegen weitergeben. Irgendwann besitzt jeder in der Farm „Full Control“ Rechte. In diese Situation möchte sicherlich kein SharePoint Administrator jemals kommen. Dementsprechend gilt es die entsprechenden Schutzmaßnahmen einzurichten.

    Deaktivierung der Versionierung in SharePoint Bibliotheken

    Manche Unternehmen verwenden die SharePoint Versionierung nicht nur für Veröffentlichungen mit Genehmigungsprozessen, sondern auch für eine Art Backup & Restore. Ein solches Vorgehen macht Sinn, wenn fehlerhafte Einträge vorgenommen oder eine finale Version korrupt wurde. Ein Dokument kann dann auf eine frühere Version zurückgesetzt werden. Was geschieht nun aber, wenn die Versionierung abgeschaltet wird, weil man annimmt, dass so sehr viel Speicherplatz eingenommen wird?* Alle Versionen gehen so bei der nächsten Änderung (ob Inhalt oder Metadaten) verloren. Sollte ein kritisches Dokument mit wichtigen Informationen bei der nächsten Speicherung sogar korrupt werden, können alle entsprechenden Daten verloren gehen. Auch das ist eine Situation, die jeder Administrator sicherlich vermeiden möchte.

     

    Welche Vorkehrungen kann ein SharePoint Administrator also dagegen treffen? Ein bloßes Training der Mitarbeiter ist aufwendig und müsste für neue Mitarbeiter wiederholt werden. Aus Compliance Perspektive entlastet diese Form den Administrator als Vorgesetzten zudem nicht von entsprechender Verantwortung. Reine Monitoring-Lösungen erfüllen nur die halbe Anforderung und mit SharePoint-nativen Mitteln könnte man jedem Nutzer nur maximal Leserechte geben, um obige Szenarien erfolgreich zu verhindern. All das ist mit Sicherheit nicht zielführend.

    Die Firma AvePoint hat für solche Fälle den „Policy Enforcer“ entwickelt, der aktiv verschiedenste Events im SharePoint auditiert (Check In/Out, Copy, Move, Change Permission etc.). Basierend auf diesen beobachteten Vorgängen, können verschiedene Regeln definiert werden. Zum Beispiel kann definiert werden, dass bestimmte, oder auch alle User, den Befehl „Löschen“ nicht ausführen dürfen (siehe Szenario 1). Es kann bestimmt werden, dass keine Berechtigungen vergeben, geändert odergelöscht werden können (siehe Szenario 2) oder die Versionierung nicht modifiziert werden darf (siehe Szenario 3).

    Der „Policy Enforcer“ ist somit eine Art zusätzliche Ebene über dem SharePoint. Das bedeutet, dass z.B. selbst ein Nutzer mit dem SharePoint „Full Control“ Recht nicht in der Lage ist, Berechtigungen zu vergeben, da dies beispielsweise nur der SharePoint Administrator selbst erledigen möchte. Diese Regeln können sowohl als „Verweigerung“ als auch „Erlaubnis“ konfiguriert werden und so kann beispielsweise einem SharePoint „Leser“ zusätzlich das Recht einräumt werden, Subseiten erstellen zu dürfen.

     

    Das ist nur ein Beispiel für eine von vielen weiteren Regeln, die der „Policy Enforcer“ standardmäßig mitbringt. Sogar entsprechende Benachrichtigungen können konfiguriert werden. Dieses Tool bietet zahlreiche Möglichkeiten die Arbeit als SharePoint Administrator zu vereinfachen.. Probieren Sie es einfach einmal aus!

    Viele Spaß beim „SharePointen“!

     

    * Anmerkung: Dies trifft für Versionen vor SharePoint 2013 zu. Mit SP2013 und dem Shredded Storage gestaltet sich die Situation anders. Dies soll jedoch in diesem Kontext nicht weiter behandelt werden.

  • Quick Tip Virtualisierung: Hyper-V Dynamic Memory aktivieren und anpassen

    Dieser Gastbeitrag wurde uns freundlicherweise vom Education Support Center zur Verfügung gestellt. Autor ist Iris Braselmann.

    Das ESCde betreibt im Auftrag von Microsoft Deutschland die TechNet Support Hotline. Mehr Infos unter www.technet.de/hotline.

    Mit dem Service Pack 1 für Windows Server 2008 R2 wurde in Hyper-V eine neue Funktion eingeführt, der dynamische Speicher. Durch dieses Feature wird der Arbeitsspeicher als freigegebene Ressource behandelt der zwischen virtuellen Maschinen verteilt werden kann. 



    Das Feature ist für Gastbetriebssysteme ab Windows Server 2003 und Windows Vista verfügbar. Windows XP wurde hierbei nicht berücksichtigt.

    Seit Hyper-V 2012 R2 kann der dynamische Speicher auch für Linux Gastbetriebssysteme genutzt werden. Lediglich aktualisierte Linux Integration Components werden hierfür benötigt.

    Bitte beachten: Dynamischer Speicher ist nicht für alle Server geeignet und wird beispielsweise nicht von Exchange-Servern [1], SQL-Servern [2] oder dem Sharepoint [3] unterstützt.

     

    Dynamischen Speicher aktivieren und anpassen

    Um den dynamischen Speicher für die virtuellen Maschinen (VM) zu aktivieren, müssen zunächst die Eigenschaften der jeweiligen VM geöffnet werden und der Bereich "Arbeitsspeicher" ausgewählt werden. Hier kann der Haken „Dynamisch“ zum Aktivieren gesetzt und im Weiteren folgende Einstellungen getroffen werden:


    ausgewählt wezum Aktivieren gesetzt und im Weiteren folgende Einstellungen getroffen werden:

    dynamic memory

    Start-RAM: Arbeitsspeicher den das Gastbetriebssystem benötigt um starten zu können. Dieser Wert sollte so niedrig wie möglich sein um eine optimale Arbeitsspeicherverwendung zu ermöglichen aber auch hoch genug sein, damit das Betriebssystem starten kann. Eine Tabelle mit den empfohlenen Start-RAM Werten für die verschiedenen Betriebssysteme befinden sich unter [4].

    Minimaler RAM: RAM der zu jeder Zeit der VM zur Verfügung stehen muss. Dieser Wert muss kleiner oder gleich groß zu dem Wert des Start-RAMs sein.

    Maximaler RAM: Legt fest wie viel Arbeitsspeicher maximal von der VM verwendet werden darf. Der Wert kann zwischen dem Minimum des RAMs beim Start und maximal 64 GB gewählt werden. Sollte das Betriebssystem jedoch nicht in der Lage sein 64 GB RAM zu nutzen, wird nur die Maximalzahl des Betriebssystem effektiv genutzt werden.

    Arbeitsspeicherpuffer: Arbeitsspeicher der nach Möglichkeit zusätzlich zum tätsächlichen Arbeitsspeicherbedarf der VM zugewiesen wird, angegeben in Prozent. Der Puffer wird jedoch nicht vergeben wenn der physische Speicher auf dem Computer nicht ausreicht.

    Arbeitsspeicherumfang: Regelt Prioritäten, falls der physikalische Arbeitsspeicher nicht ausreichen sollte um allen Maschinen den geforderten Arbeitsspeicher zuzuweisen.

     

    Dynamic Memory in System Center Virtual Maschine Manager (VMM)

    Da sich virtuelle Maschinen auch in System Center im Virtual Machine Manager verwalten lassen, können hier auch die Einstellungen für den dynamischen Speicher getroffen werden.

    Dafür muss zunächst die Virtual Machine Manager Console gestartet werden. Als nächstes wählt man den Host aus auf welchem die VM liegt, welche bearbeitet werden soll und wählt mittels Rechtsklick die Eigenschaften der VM aus. In der Hardware Konfiguration können, wie im vorliegenden Bild zu sehen, die Einstellungen wie im oberen Teil des Artikels beschrieben wurde, getroffen werden.

    Memory SC

    [1] http://technet.microsoft.com/en-us/library/jj619301(v=exchg.150).aspx

    [2] http://msdn.microsoft.com/en-us/library/hh372970.aspx

    [3] http://technet.microsoft.com/en-us/library/ff621103(v=office.15).aspx

    [4] http://technet.microsoft.com/de-de/library/ff817651(v=ws.10).aspx

  • TechNet Newsflash Ausgabe 17/2014

    Liebe Podcast-Zuhörer,

    der Podcast Ausgabe 17/2014 des TechNet Newsflash ist live.

    http://download.microsoft.com/download/B/5/6/B56DB709-07CA-4DE3-8F90-3CB99A2C01DD/TechNetFlash_17-2014.mp3

    Link zum TechNet Newsflash in Schriftform:

    http://www.microsoft.com/germany/technet/newsflash/aktuell.htm

    Link zum RSS Feed:

    http://www.microsoft.com/feeds/technet/de-de/newsflash/tn_flash_podcast_archiv.xml

    Wie immer: viel Freude beim Zuhören und späteren Durchstöbern der angekündigten Ressourcen!

    Euer TechNet-Team!

    ☁ Heike