Unsere Datenschutzrichtlinie wird in Kürze aktualisiert. Bitte sehen Sie sich die Vorschau an.

SharePoint 2016-Administration Grundkurs

Grundkonfiguration der Suchdienstanwendung

Testen Sie unsere 2021 Kurse

10 Tage kostenlos!

Jetzt testen Alle Abonnements anzeigen
Eine als Dienstanwendung implementierbare, leistungsstarke Suchfunktion bildet die Grundlage für die übergreifende Zusammenfassung von Inhalten.

Transkript

Mit SharePoint Server wird bereits seit einige Versionen eine äußerst leistungsfähige Suchmaschine geliefert, die mit den herkömmlichen bekannten Suchmechanismen aus der Windows-Explorer-Zeit nicht mehr zu vergleichen ist. Die SharePoint-Server-Enterprise-Suche ist eher vergleichbar mit den aus dem Internet bekannten Suchmaschinen und in der Lage, Metadaten zu indizieren, Volltextsuchen durchzuführen und komplexe Synonyme abzubilden. Um eine Suchdienstanwendung in SharePoint erfolgreich einzurichten, ist es nicht damit getan, den Konfigurationsassistenten der Farm mit MinRole auszuführen. Dieser implementiert nur eine Dienstanwendung, die über die Zentraladministration über den Befehl Dienstanwendungen verwalten aufgerufen werden kann. Hier findet man die Suchdienstanwendung, die vom Assistenten so erstellt wurde, und die nun aber noch konfiguriert werden muss. Es beginnt alles mit dem Standardkonto für den Inhaltszugriff. Der sogenannte Crawler, das sind die Bestandteile der Suchdienstanwendung, die die Inhalte tatsächlich öffnen, also Dateien öffnen und sich dann anhand des Inhalts der Dateien einen Index zurechtbiegen. Dieser Crawler wird mit einem eigenen Konto ausgeführt. Dieses Konto muss natürlich auch Leseberechtigungen für alle relevanten Inhalte bekommen. In diesem Beispiel wird nun standardmäßig das Konto des Diensts selbst verwendet. Das ist eigentlich eher schlecht, denn wenn für das Prozesskonto, für das Konto, das auch dem Windows-Prozess zugrunde liegt, umfangreiche Leserechte eingereicht werden für File Server, stellt das möglicherweise ein zusätzliches Sicherheitsrisiko dar. Daher besteht die Empfehlung, dass man als Standardkonto für den Inhaltszugriff ein eigens dafür erstelltes Konto verwendet. Das geht in der Verwaltung der Suchdienstanwendung, indem man das Standardkonto für den Inhaltszugriff mit der linken Maustaste anklickt. Nun kann man ein anderes Konto verwenden. In der SPDEMO-Domäne wurde dafür das Konto SPCrawler erstellt. Im Unterschied zu anderen Konten handelt es sich hier nicht um ein verwaltetes Konto. Benutzername und Kennwort müssen hier in der Konfiguration der Suchdienstanwendung hinterlegt werden. Es ist nicht möglich, SharePoint-seitig die Kennwortänderung für dieses Konto zu programmieren. Aber es gilt: Wenn im Active Directory das Kennwort für dieses Konto verändert wird, muss es auch hier drin geändert werden. Sonst wird der Crawler nicht mehr funktionieren und es werden keine aktuellen Suchergebnisse mehr geliefert. Im nächsten Schritt muss für dieses Konto natürlich auch eine entsprechende Leseberechtigung auf die relevanten Webanwendungen, die durchgecrawlt werden sollen, angelegt werden. In der Zentraladministration kann man in der Anwendungsverwaltung auf Webanwendungen verwalten gehen und für die gewünschten Webanwendungen eine Benutzerrichtlinie erstellen, sofern diese nicht bereits existiert. Im Beispiel hier sieht man, dass SharePoint so intelligent war und für das Konto SPCrawler automatisch eine Richtlinie angelegt hat, um in dieser Webanwendung zu suchen. Das heißt, das Konto besitzt hier volle Leserechte auf alles. Im nächsten Schritt würde über die Zentraladministration im Dienstanwendungsverwaltungsmanager erneut die Suchdienstanwendung aufgerufen. Und im linken Abschnitt gibt es hier die Möglichkeit, die Inhaltsquellen zu definieren. Hinter den Inhaltsquellen steckt die Einrichtung der einzelnen Adressen, also Webanwendungen oder File-Server-Adressen oder andere Bereiche, die vom Crawler durchsucht werden sollen. Hier gibt es die lokalen SharePoint Websites, die bereits zum Crawlen aktiviert wurden. Wenn man die verändern möchte, muss man zuerst den Crawler beenden, beziehungsweise den Prozess der Kontinuierlichen Durchforstung deaktivieren. Die Inhaltsquelle muss sich komplett Im Leerlauf befinden. Erst dann kann man hier auf Bearbeiten gehen und die eingestellten Änderungen tatsächlich auch speichern. Hier wird nun festgelegt, welche SharePoint-Sites vom Crawler durchgecrawlt werden sollen. Hier wird auch das App Web unter anderem eingetragen nach Erstellung, das kann man rausnehmen, das ist ja unsinnig. Man kann einen Zeitplan eintragen für eine kontinuierliche Durchforstung. Continuous Crawling bedeutet einfach: Wenn nach dem Zeitplan der Durchforstung noch Restzeit nötig wäre, das heißt, wenn der Crawl länger dauert als eigentlich die Intervalle vorsehen, wird neu gecrawlt, das heißt, die beiden Crawls werden miteinander gemergt und es kann so nicht zu einem Aufschaukeln des Crawlers kommen. Die Option Continuous Crawling stellt hohe Speicheranforderungen an den Datenbankserver. Lohnt sich aber, denn die Aktualität der Suchergebnisse ist ein ganz wichtiger Faktor. Gesetzt den Fall, es gäbe eine UNC-Freigabe, also File-Server-Inhalte, ließe sich die über eine neue Inhaltsquelle dem Suchdienst beibringen. In diesem Fall handelt es sich aber nicht um SharePoint-Websites, sondern um Dateifreigaben. Es müsste dementsprechend hier der UNC-Pfad zur Freigabe angegeben werden. Hier gibt es nicht die Möglichkeit von Continuous Crawling, sondern hier müssen Zeitpläne für Vollständige und Inkrementelle Durchforstung hinterlegt werden. Inkrementell kann man zum Beispiel täglich ab 0 Uhr ausführen und täglich alle 15 Minuten wiederholen, oder alle 30 Minuten, je nachdem wie aktuell die Files sein sollen. Jetzt muss man minutiös umrechnen auf den Tag. Das bedeutet auch, wenn der Crawl 24 Stunden ausgeführt werden soll, 24 mal 60 ist gleich 1440 Minuten. Diese Einstellung würde nun bedeuten, dass der Crawl alle 15 Minuten 24 Stunden lang ausgeführt wird. Man könnte natürlich auch die Startzeit auf morgens um 6 Uhr setzen. Wenn der Crawl bis 18 Uhr ausgeführt werden soll, wären das 12 Stunden. Diese 12 Stunden müsste man umrechnen auf 60 Minuten. Ergibt 720 Minuten. Insoweit wäre hier 720 Minuten einzutragen. Jetzt hat man einen Zeitplan erstellt, der morgens um 6 Uhr beginnt und den Crawl alle 15 Minuten wiederholt bis abends um 18 Uhr. Beim Einstellen von Crawls auf File-Server-Verzeichnisse ist zu beachten, dass natürlich hier mehrere Prozesse kontinuierlich Dateien öffnen am File Server und die Last durchaus drastisch erhöht werden kann. Wenn also ein Dateiserver ohnehin schon am oberen Limit tickt, ist zwingend die Ressource zu beobachten und eventuell CPU und Speicher nachzurüsten. Eine Vollständige Durchforstung empfiehlt sich dann, wenn sich häufig Änderungen ergeben. Man kann einen Zeitplan einrichten auf 1 Tag, 5 Tage, 10 Tage. Das muss noch genau geplant werden. Und die Änderung der Inhalte muss genau berücksichtigt werden. Mit einem Zeitplan der einmal nächtlich eine vollständige Durchforstung anstößt, ist man bei kleineren File Servern auf gar keinen Fall verkehrt. Zu berücksichtigen ist hier allerdings, dass der Crawl nicht genau synchron mit dem Backup stattfinden sollte. Gut, nun hat man also dem Crawler die lokalen SharePoint Websites beigebracht und zusätzlich File-Server-Inhalte, die nun alle in das Indexergebnis einfließen. Ab sofort wäre man auch in der Lage, Inhalte aus SharePoint über die Suche zu finden, gepaart mit Inhalten aus dem File Server. Es wird hier also nicht mehr nach Quelle unterschieden, sondern beides wird gleichzeitig angezeigt. Links im Menü der Suchdienstverwaltung finden sich außerdem die Durchforstungsprotokolle, die man über den Befehl Durchforstungsprotokoll aufrufen kann. Hier kann man haarklein nachgucken, wie erfolgreich der Crawler war. Zum Beispiel wurde hier für die Inhaltsquelle Lokale SharePoint-Websites die letzte Durchforstung mit einer Dauer von 2 Minuten durchgeführt. Und es wurden 138 Dateien gefunden und indiziert. Hier kann man also genau nachgucken, welche Dateien wurden gefunden und indiziert. Wenn nun ein Benutzer meldet, dass er eine gewünschte Datei trotz Eingabe eines korrekten Suchbegriffs nicht finden kann, könnte man hier über die Durchforstungsprotokolle einsteigen und gucken, warum diese Datei nicht indiziert wurde, oder ob sie denn überhaupt indiziert wurde. Die Durchforstungsprotokolle bieten also dem Farmadministrator die Kontrolle darüber, was genau indiziert wurde, wie viel indiziert wurde und wie lange es gedauert hat.

SharePoint 2016-Administration Grundkurs

Lernen Sie, worauf es bei der Planung, Einrichtung und Administration einer SharePoint-Farm auf Basis von SharePoint Server 2016 ankommt.

8 Std. 21 min (66 Videos)
Derzeit sind keine Feedbacks vorhanden...
 
Hersteller:
Software:
Exklusiv für Abo-Kunden
Erscheinungsdatum:24.10.2016

Dieser Online-Kurs ist als Download und als Streaming-Video verfügbar. Die gute Nachricht: Sie müssen sich nicht entscheiden - sobald Sie das Training erwerben, erhalten Sie Zugang zu beiden Optionen!

Der Download ermöglicht Ihnen die Offline-Nutzung des Trainings und bietet die Vorteile einer benutzerfreundlichen Abspielumgebung. Wenn Sie an verschiedenen Computern arbeiten, oder nicht den ganzen Kurs auf einmal herunterladen möchten, loggen Sie sich auf dieser Seite ein, um alle Videos des Trainings als Streaming-Video anzusehen.

Wir hoffen, dass Sie viel Freude und Erfolg mit diesem Video-Training haben werden. Falls Sie irgendwelche Fragen haben, zögern Sie nicht uns zu kontaktieren!