Sharepoint-Best Practices 10 Tipps für eine optimierte Sharepoint-Leistung

Autor / Redakteur: Andreas Grabner und Martin Etmajer / Ulrike Ostler

Viele, ganz viele Unternehmen setzen „Microsoft Sharepoint“ für die interne Kommunikation, die Zusammenarbeit verteilter Teams oder auch für die Verwaltung von Inhalten ein. Doch fehlerhafte Konfiguration, steigende Nutzerzahlen oder große Datenmengen führen schnell zu Performance- und Usability-Problemen. Hier gibt es zehn Praxistipps rund um Usability, Konfiguration und Performance.

Anbieter zum Thema

Mit diesen Tipps von Dynatrace können Unternehmen in Sachen Sharepoint-Performance besser sein als andere und Hürden überwinden.
Mit diesen Tipps von Dynatrace können Unternehmen in Sachen Sharepoint-Performance besser sein als andere und Hürden überwinden.
(Bild: © WunderBild - Fotolia)

Leistungseinbußen oder Komplexität stellen die größte Hürde bei der Akzeptanz von Sharepoint im Unternehmen dar. Das stellte Forrester Research im August 2014 in seiner „Global Sharepoint Usage Only Survey“ fest. Die Gründe für Engpässe oder eingeschränkte Verfügbarkeit sind vielfältig: Parallele Zugriffe vieler Nutzer, massives Wachstum an Inhalten und Web Parts, fehlerhafte Konfiguration von Funktionen oder externe Anwendungen von Drittanbietern verbrauchen viele Ressourcen und verlangsamen den Zugriff auf Sharepoint.

Frustrierte Mitarbeiter sind die Folge. Abhilfe schaffen folgende zehn Praxistipps:

Tipp 1: Analyse des Nutzerverhaltens

Wie oft sind die Nutzer auf Sharepoint aktiv? Auf welche Datenbanken oder SQL Server greifen sie zu? Welche Seiten werden am häufigsten aufgerufen? Wie kommen die Anwender mit der Benutzeroberfläche und Navigation zurecht?

Nur wer die Anforderungen oder Schwierigkeiten der Anwender genau kennt, kann die Schwachstellen beheben und die Leistung optimieren. Die Analyse der Nutzer-Aktivitäten kann beispielsweise über Usability-Tests, Fragebögen oder Tools geschehen, die das Verhalten der Anwender auf den SharePoint-Seiten nachverfolgen.

Tipp 2: Design und Inhalte einer Sharepoint-Website optimieren

Um die Usability von Sharepoint zu verbessern, sollte der Verantwortliche einer Website wie ein Webmaster agieren und entsprechend geschult werden. Zu den Aufgaben eines Webmasters gehören beispielsweise das Design der Website sowie vor allem der Aufbau der Informationsarchitektur.

Letzteres umfasst die sinnvolle Aufteilung der Inhalte, die Navigationswege und Suchmöglichkeiten innerhalb des Angebots. Der Website-Verantwortliche muss seine Zielgruppe verstehen, die richtigen Inhalte auf der Homepage platzieren und so gestalten, dass die Besucher lange auf der Seite verweilen und sie immer wieder besuchen.

Tipp 3: Große Dateien auf separate Server verlagern

Große binäre Objekte (BLOB = Binary Large Objects) wie Bild- oder Audiodateien beanspruchen in einer Objektbibliothek sehr viel Speicherplatz und Server-Bandbreite. Um Leistungseinbußen zu vermeiden und den Zugriff zu beschleunigen, bietet es sich an, diese umfangreichen Daten ab einer Größe von etwa 500 Gigabyte von der eigentlichen Inhalts-Datenbank auf einen externen Server auszulagern. Dies erfolgt bei „Microsoft SQL Server 2008 R2“ über die Funktion Remote-BLOB-Speicher (RBS).

Tipp 4: Log-Dateien richtig konfigurieren

Log-Dateien, sprich Protokolle von Prozessen oder Datenänderungen, sind ein zentraler Bestandteil jedes Systems. Sie verraten, was wann passiert ist und können bei Leistungsanalysen, Fehlersuchen und zur Compliance-Überwachung bei Service Level Agreements (SLAs) nützlich sein.

Doch die Usage-Datenbank mit den Log-Dateien kann schnell auf ein beachtliches Volumen wachsen und damit die Leistung von Sharepoint mindern. Daher ist es wichtig, Elemente wie Unified Logging Service-Protokolle (ULS), Integritätsdaten oder das Entwickler-Dashboard richtig zu konfigurieren und eine Überfrachtung mit unnötigen Log-Daten zu vermeiden.

Tipp 5: Gewissenhaftes Berechtigungs-Management

Das hierarchische Berechtigungs-Konzept von Sharepoint kann schnell zu komplexen Rechtestrukturen führen und die Benutzerfreundlichkeit beeinträchtigen. Um unbeabsichtigte Änderungen zu minimieren, sollten Unternehmen immer darauf achten, dass die Zugriffsrechte des Nutzers mit seiner tatsächlichen Rolle und seinen Aufgaben übereinstimmen.

Ergänzendes zum Thema
Check: Schnelle Performance-Prüfung

Ein Check lässt sich in nur 15 Minuten in fünf einfachen Schritten durchführen. Alternativ können Sie auch diese Schritte im „15 Minute Tutorial Blog“ nachlesen oder auf Youtube als Sharepoint Performance Analysis Tutorial ansehen.

1. Herunterladen und Installieren der kostenlosen Testversion von Dynatrace

Die Testversion steht hier zur Registrierung bereit. Da man nach der Registrierung eine .msi-Datei herunterlädt, sollten die Nutzer sichergehen, dass ihr Antivirus-Programm diesen Dateityp nicht blockiert. Anschließend sind die angezeigten Anweisungen zu beachten.

2. Herunterladen und Installieren des Sharepoint Fast Pack

Um die Konfiguration von Dynatrace für Sharepoint abzukürzen, stellt das Unternehmen ein spezielles „Fast Pack“ zur Verfügung, das vorkonfigurierte Dashboards und Reports enthält. Es wird als .dtp-Datei heruntergeladen. Nach der Installation lässt sich in Dynatrace der Punkt „Sharepoint“ im Drop-Down-Menü oben links auswählen.

3. Konfigurieren von IIS und Sharepoint App Pool

Das Fast Pack erwartet die Angabe von zwei Agenten: Webserver (IIS) und Sharepoint (genauer den „App Pool“). Anschließend ist der Dynatrace Agent auf dem Sharepoint Server zu installieren und zu konfigurieren, um den Daten-Traffic zwischen IIS und App Pool vollständig zu überwachen.

4. Last (workload) auf das System bringen

Handelt es sich beim Sharepoint Server um ein produktives System oder ein Testsystem mit etwas Last, können die aufgezeichneten Daten sofort in Dynatrace beobachtet werden. Ist kein Anwender im System, kann der Tester selbst ein paar Seiten anklicken, entsprechende Tools nutzen oder eine Mail an die Kollegen mit der Bitte um SharePoint-Nutzung schreiben.

5. Ursachen für Performance-Probleme identifizieren

Im Monitoring-Dashboard von Dynatrace lassen sich anschließend die Daten einsehen. Dabei zeigt zum Beispiel der Transaction Flow, wie gut die App funktioniert und wo die Hotspots sind. „End User Health“ gibt einen Überblick, von wo aus die Nutzer auf die Daten zugreifen und wie ihre Erfahrungen sind. „Application Health“ analysiert den Status der Anwendung nach Business-Transaktion. Und „Infrastructure Health“ gibt die klassischen Messwerte wie CPU-, Memory-, Disk- und Netzwerkstatus aller Maschinen und Prozesse aus. Damit erhalten Unternehmen schon nach kurzer Zeit wichtige Einblicke in die Performance ihrer Sharepoint-Umgebung.

Tipp 6: Leistung des SQL Server optimieren

In vielen Projekten ist der zugrunde liegende SQL-Server für Performance-Probleme von Sharepoint und den langsamen Aufbau der Websites verantwortlich. Es gibt beispielsweise folgende Stellschrauben an der SQL-Konfiguration, um die Leistung von Sharepoint zu verbessern:

  • Parameter für Parallelität auf den Wert „1“ setzen, damit der SQL-Server nur einen Prozessorkern für die Bearbeitung von Anfragen benutzt.
  • Kapazität des maximalen Speichers für SQL Server angemessen planen, damit SQL Server nicht den gesamten Speicher allokiert und das Betriebssystem noch genügend Ressourcen zur Verfügung hat.
  • Aufteilung der Sharepoint-Datenbanken auf verschiedene Festplatten-Systeme
  • Einrichtung dedizierter temporärer Datenbank-Laufwerke
  • Verteilten Cache richtig konfigurieren
  • Microsoft Branchcache einrichten, um die Inhalte von Datei-, Remote- und Web-Servern in einem WAN auf lokalen Workstations (Clients) und Servern zu cachen. Dies reduziert den Netzwerkverkehr und erhöht die Zugriffsgeschwindigkeit auf Inhalte.

Tipp 7: Logging in der Produktion begrenzen

Logging ist bei der Software-Entwicklung hilfreich, um Fehler zu erkennen und den Code zu optimieren. Für Test-Ingenieure ist es wichtig, während eines Lasttests auf dringende Log-Meldungen zu achten. Sie zeigen an, dass die Anwendung noch nicht produktiv gehen kann oder nicht leistungsfähig genug ist. Häufige Log-Meldungen während des Lasttests können zudem zu ungenauen Leistungskennzahlen führen.

Im Produktivbetrieb sind Log-Dateien eher störend, da sie die Leistung der Anwendung drosseln können. Der IT-Betrieb sollte Log-Meldungen daher unterbinden, es sei denn, sie enthalten wesentliche Informationen über die Inbetriebnahme und Konfiguration. Im normalen Produktivbetrieb sollten sie die Anzahl der Logs überwachen, um sicherzustellen, dass Log-Meldungen dauerhaft ausgeschaltet sind und nicht die Leistung beeinflussen.

Tipp 8: Datennutzung bei Architektur berücksichtigen

Sharepoint bietet die Option, Daten in einfach zu definierenden Listen abzulegen, ist aber nicht auf die Verarbeitung großer Datenmengen ausgelegt. In diesem Fall wäre es besser, die Daten auf einer externen relationalen Datenbank verarbeiten zu lassen.

Unternehmen sollten daher vor dem Beginn eines Sharepoint-Projekts ihren Datenbestand analysieren und sich folgende Fragen stellen:

  • Wie häufig benötigen wir die Daten?
  • Wie viele verschiedene Nutzer ändern die Daten wie oft in welchem Zeitraum?
  • Wird eine große Menge Daten häufig geändert, bietet sich der Aufbau einer externen relationalen Datenbank an, auf die Sharepoint zugreift.

Tipp 9: Standard-Einstellungen anpassen

Sharepoint bietet eine große Menge an Funktionen, die ohne jegliche Anpassung schnell einsatzbereit sind. Doch die Standard-Einstellungen eignen sich nicht für jedes Anwendungsszenario. Ein Beispiel sind potenzielle Performance-Probleme bei allen Sharepoint- und .NET-basierten Installationen, die über den „Servicepoint Manager“ auf Webservices zugreifen.

Der „Service Point Manager“ erlaubt per Default nur maximal zwei gleichzeitige Verbindungen. Das heißt: Nutzt das Sharepoint-Dashboard für eine Abfrage mehr als zwei Datenquellen, müssen die Endnutzer mit längeren Ladezeiten rechnen.

In diesem Fall sollte der SharePoint-Administrator die Standard-Einstellung ändern und als Wert für die gleichzeitigen Sessions mindestens die Anzahl der Web Parts angeben, die auf einem Dashboard erlaubt sind.

Tipp 10: Muster beim Datenzugriff analysieren

Es gibt keine Garantie, dass eine Applikation, die auf dem Entwicklungsrechner oder bei einem kleineren Last-Test funktioniert, auch in der Produktivumgebung reibungslos arbeitet. Daher ist es wichtig, die Muster für die Zugriffe auf die Datenbank sowie die datengesteuerten Zugriffsmuster pro Abfrage zu analysieren.

Bei ersterem kontrolliert der IT-Betrieb nicht nur die Anzahl der ausgeführten SQL-Statement, sondern auch die SQL-Anweisungen, die sich während einer Transaktion wiederholen. Der Entwickler kann auf Basis dieser Zahlen den Zugriff auf die Datenbank optimieren, indem er diese häufig wiederkehrenden SQL-Statements vorbereitet (Prepare-Methode) oder die entsprechenden Daten in der Anwendung zwischenspeichert, um die Abfrage zu beschleunigen.

Im Rahmen der Analyse der Zugriffsmuster pro Abfrage prüft der IT-Betrieb, wie häufig und wie schnell die wichtigsten gespeicherten Prozeduren ausgeführt werden. Bei erheblich abweichenden Reaktionszeiten ist der Datenbank-Administrator gefragt. Die Entwickler können Abfragen beschleunigen, indem sie ähnliche und häufig wiederkehrende SQL-Statements in einer gespeicherten Prozedur zusammenfassen.

Unternehmen, die diese Punkte beachten, können die tatsächlichen Ursachen erkennen und beseitigen ohne dass aufs Geradewohl zusätzliche Hardware angeschafft wird, die das Problem zwar behebt, aber teuer ist.

Ergänzendes zum Thema
Dynatrace schließt Rekord-Finanzjahr ab

Dynatrace sieht sich als „Innovator der ersten Digitalen Performance-Plattform“, die Echtzeit-Informationen über die Digitale Performance für jeden in Business und IT aufzeigt. Zur Kundschaft von mehr mehr als 6.000 Organisationen zählen Adobe, KLM, Samsung, DHL, Elia, AT&T, Red Bull, Alibaba, McGraw Hill, Vodafone, McKesson, Nestlė, Swiss Life, Telcel und Ford Motor Company.

Im Finanzjahr 2015, das zum 31. März endete, hat das Software-Unternehmen ein Ergebnis von über 350 Millionen Dollar erzielt. Auf dem umkämpften Application Performance Management (APM)-Markt hat sich das Wachstum von Dynatrace auf 58 Prozent beschleunigt. Das Wachstum basiert auf 31 Prozent Zuwachs bei Neukunden, 64 Prozent Anstieg der Umsätze durch Partner und einer Wartungsverlängerungsrate von 91 Prozent.

Die Digitalisierung sorgt für neue Kunden

Weitere Erklärungen liefert John Van Siclen, CEO von Dynatrace: „Wir erleben einen historischen Paradigmenwechsel: Alles wird digital“, sagt er. Von Startups bis zu weltweiten Unternehmen, 2015 markiere einen Wendepunkt für die digitale Transformation. Die Kunden nutzten alle Kanäle (Omni-Channel) und Mobile ist wirklich allgegenwärtig. Das Business ist darauf fokussiert, höchste User Experience zu liefern, um Marktanteile zu gewinnen. „Die Digitale Performance ist der Schlüssel dazu“, so Van Siclen. „Wir sind ein zuverlässiger Partner für die Navigation durch diese digitalen Veränderungen.“

Zusätzlich erzielte das Partnerprogramm von Dynatrace im Finanzjahr 2015 weiteres Wachstum. Der Gesamtumsatz durch die weltweit über 650 Partner stieg auf 63 Millionen Dollar. Der „Dynatrace Guardian Service“, der von Gartner im „Magic Quadrant for Application Performance Monitoring 2014“ als Schlüsselstärke des Unternehmens bezeichnet wird, wuchs weiter um 37 Prozent.

Weitere Highlights von Dynatrace im Finanzjahr 2015:

  • Im ersten Jahr als unabhängiges Unternehmen erzielte Dynatrace den größten Marktanteil unter allen APM-Anbietern.
  • Im fünften Jahr in Folge wurde Dynatrace zum APM Industry Leader ernannt.
  • Gartner klassifiziert Dynatrace auf Platz eins in drei von fünf Kategorien seines “Critical Capabilities for Application Performance Monitoring” Report.
  • Dynatrace wurde zum Nummer 1 Provider von Web Performance Monitoring-Lösungen von führenden Internet-Händlern ernannt, darunter Amazon, Netflix und Sony.
  • Die Dynatrace APM Community hat sich im letzten Jahr stark vergrößert. Monatlich traten über 1.000 Mitglieder ein. Die Community hat jetzt über 103.000 Mitglieder.

Größere Innovationen waren:

d

  • er Launch von „Ruxit“, eine Application Monitoring-Lösung für Cloud Natives, die auf künstlicher Intelligenz basierende Modelle zur Problemanalyse- und Lösung nutzt
  • die Veröffentlichung einer neuen, skalierbaren Architektur für die Datenerfassung als Teil von „Dynatrace Application Monitoring 6.0“.
  • die erste Unterstützung von „Swift“ und „iOS8“ mit einer App-to-Backend Performance Analytics-Lösung
  • eine neue Produktfamilie von Analyse-Engines, die automatisch größte Datenmengen analysieren und die wahrscheinlichsten Problemursachen erkennen

Über die Autoren

Andreas Grabner: Technology Strategist Center of Excellence, Dynatrace

Martin Etmajer ist der Software-Architekt von den beiden Autoren.
Martin Etmajer ist der Software-Architekt von den beiden Autoren.
(Bild: Dynatrace)

Andreas Grabner hat mehr als 15 Jahre Berufserfahrung als Architekt und Entwickler im Java- und .NET-Umfeld. In seiner derzeitigen Funktion als Technology Strategist bei Dynatrace leitet er das APM-Center of Excellence Team. Dabei arbeitet er eng mit Kunden bei der Implementierung von Performance-Management-Lösungen und über den gesamten Anwendungslebenszyklus zusammen und nimmt wesentlichen Einfluss auf die Produktstrategie von Dynatrace. Zu Performance- und Architektur-relevanten Themen ist er ein vielgefragter Sprecher auf internationalen Technologie-Konferenzen. Als Blogger publiziert Andreas Grabner regelmäßig Fachartikel.

Andreas Grabner ist Technology Strategist Center of Excellence bei Dynatrace.
Andreas Grabner ist Technology Strategist Center of Excellence bei Dynatrace.
(Bild: Robert Gortana)

Martin Etmajer: Software Architect bei Dynatrace

Martin Etmajer studierte Technische Informatik an der TU Wien und war mehrere Jahre als Software-Architekt tätig. Besondere Erfahrung sammelte er im Bereich Performance-Monitoring und -Management hochverfügbarer Cluster-Umgebungen. Als Technology Strategist bei Dynatrace ist er im Center of Excellence an der strategischen Weiterentwicklung der Dynatrace-Performancelösungen beteiligt. Performance-Monitoring in Cloud-Umgebungen, Business-Analytics-Lösungen und Continuous Delivery stehen dabei besonders im Fokus. Weitere Fachartikel von Martin Etmajer.

(ID:43474518)