Elastic Stack-Features

Von Sicherheit auf Enterprise-Niveau und entwicklerfreundlichen APIs über Machine Learning bis hin zu Graph-Analytics bietet der Elastic Stack zahlreiche Features (ein Teil davon wurde bisher als „X‑Pack“ angeboten), mit denen Sie alle Arten und Mengen von Daten ingestieren, speichern, analysieren, durchsuchen und visualisieren können.

Verwaltung und Betrieb

Erkunden und visualisieren

Verwaltung und Betrieb

Verwaltung und Betrieb

Skalierbarkeit und Resilienz

Elasticsearch arbeitet in einer verteilten Umgebung, die von Grund auf so entwickelt wurde, dass Sie sich keine Sorgen um Ihre Daten machen müssen. Unsere Cluster wachsen mit Ihren Anforderungen – Sie können einfach weitere Knoten hinzufügen.

Clustering und Hochverfügbarkeit

Ein Cluster ist eine Sammlung von einem oder mehreren Knoten (Servern), die zusammen Ihre Daten enthalten und föderierte Indexierungs- und Suchfunktionen über alle Knoten bereitstellen. Elasticsearch-Cluster verwenden primäre und Replikat-Shards, um Failoverfunktionen bereitzustellen, wenn ein Knoten ausfällt. Wenn eine primäre Shard ausfällt, übernimmt ein Replikat ihre Aufgaben.

Informationen zu Clustering und HV

Automatische Knotenwiederherstellung

Wenn ein Knoten den Cluster aus irgendeinem Grund verlässt (absichtlich oder unbeabsichtigt), reagiert der Master-Knoten, indem er den Knoten durch ein Replikat ersetzt und die Shards neu ausbalanciert. Diese Aktionen schützen den Cluster vor Datenverlusten, indem sichergestellt wird, dass jede Shard so bald wie möglich vollständig repliziert wird.

Informationen zur Knotenzuordnung

Automatisches Daten-Rebalancing

Der Master-Knoten in Ihrem Elasticsearch-Cluster entscheidet automatisch, welche Shards zu welchen Knoten zugeordnet werden, und wann Shards zwischen Knoten verschoben werden, um die Balance im Cluster zu erhalten.

Informationen zum automatischen Daten-Rebalancing

Horizontale Skalierbarkeit

Wenn Ihre Auslastung wächst, skaliert Elasticsearch mit Ihnen. Fügen Sie weitere Daten und Anwendungsfälle hinzu, und wenn die Ressourcen knapp werden, können Sie einfach einen weiteren Knoten zu Ihrem Cluster hinzufügen, um Kapazität und Zuverlässigkeit zu verbessern. Wenn Sie weitere Knoten zu einem Cluster hinzufügen, werden die Replikat-Shards automatisch zugeordnet, um Sie auf die Zukunft vorzubereiten.

Informationen zur horizontalen Skalierbarkeit

Rack-Awareness

Wenn Sie nutzerdefinierte Knotenattribute als Awareness-Attribute verwenden, kann Elasticsearch Ihre physische Hardwarekonfiguration bei der Zuweisung von Shards berücksichtigen. Wenn Elasticsearch weiß, welche Knoten sich auf demselben physischen Server, im gleichen Rack oder in derselben Zone befinden, können die primäre Shard und ihre Replikate so verteilt werden, dass das Risiko für den Verlust aller Shard-Kopien bei einem Ausfall minimiert wird.

Informationen zu Allocation Awareness

Cluster-übergreifende Replikation (CCR)

Mit der Cluster-übergreifenden Replikation (Cross-Cluster Replication, CCR) können Sie Indizes aus Remote-Clustern in einen lokalen Cluster replizieren. Diese Funktion eignet sich für zahlreiche Anwendungsfälle in Produktionsumgebungen.

Informationen zu CCR
  • Disaster recovery: Wenn ein primärer Cluster ausfällt, springt ein sekundärer Cluster als Hot-Backup ein.

  • Geografische Nähe: Leseanfragen können lokal beantwortet werden, wodurch die Netzwerklatenz reduziert wird.

Rechenzentrumsübergreifende Replikation

Die rechenzentrumsübergreifende Replikation ist schon seit einiger Zeit eine Anforderung für missionskritische Anwendungen in Elasticsearch und wurde bisher zum Teil mit externen Technologien umgesetzt. Mit der rechenzentrumsübergreifenden Replikation in Elasticsearch sind keine zusätzlichen Technologien erforderlich, um Daten über Rechenzentren, Geografien oder Elasticsearch-Cluster hinweg zu replizieren.

Informationen zur rechenzentrumsübergreifenden Replikation

Verwaltung und Betrieb

Monitoring

Mit den Monitoring-Features des Elastic Stack wissen Sie stets, wie es um Ihr Elastic Stack-Deployment steht. Behalten Sie die Leistungsdaten im Blick, um sicherzustellen, dass Sie Ihren Stack optimal nutzen.

Monitoring des kompletten Stacks

Mit den Monitoring-Funktionen im Elastic Stack erhalten Sie Einblicke in den Betrieb von Elasticsearch, Logstash und Kibana. Sämtliche Monitoring-Metriken werden in Elasticsearch gespeichert und können somit mühelos in Kibana visualisiert werden.

Informationen zum Monitoring im Elastic Stack
    screenshot-monitoring-clusters-dashboard-feature-page.jpg

Multi-Stack-Monitoring

Mit einem zentralisierten Monitoring-Cluster können Sie den Zustand und die Performance mehrerer Elastic Stack-Deployments von einem einzigen Ort aus aufzeichnen, verfolgen und vergleichen.

Informationen zum Multi-Stack-Monitoring

Konfigurierbare Aufbewahrungsrichtlinie

Mit dem Elastic Stack können Sie festlegen, wie lange Sie Ihre Überwachungsdaten aufbewahren möchten. Die Standardfrist sind sieben Tage, aber Sie können jeden beliebigen Wert festlegen.

Informationen zu Aufbewahrungsrichtlinien

Automatische Alerts bei Problemen mit dem Stack

Mit den Alerting-Features des Elastic Stack werden Sie automatisch benachrichtigt, wenn sich etwas in Elasticsearch, Kibana und Logstash in Ihrem Cluster verändert, sei es der Zustand von Clustern, der Ablauf von Lizenzen oder andere Metriken.

Informationen zu Elastic Stack-Alerts
    screenshot-monitoring-cluster-alerts-feature-page.jpg

Verwaltung und Betrieb

Management

Der Elastic Stack enthält eine Vielzahl an Managementtools, UIs und APIs, mit denen Sie volle Kontrolle über Ihre Daten, Nutzer, Clustervorgänge und mehr erhalten.

Index-Lifecycle-Management

Mit dem Index-Lifecycle-Management (ILM) können die Nutzer:innen Richtlinien definieren und automatisieren, um festzulegen, wie lange ein Index in jeder der vier Phasen verbleibt, und welche Aktionen für den Index in jeder Phase ausgeführt werden. Auf diese Weise lassen sich die Betriebskosten besser planen, da die Daten in verschiedenen Ressourcenebenen abgelegt werden können.

Informationen zu ILM
  • „Heiß“: Daten werden aktiv aktualisiert und abgefragt

  • „Warm“: Daten werden nicht mehr aktualisiert, aber noch abgefragt

  • „Kalt“/„Eingefroren“: Daten werden nicht mehr aktualisiert und nur selten abgefragt (Suche ist möglich, sie ist aber langsamer)

  • „Löschen“: Daten werden nicht mehr benötigt

Daten-Tiers

Daten-Tiers bieten eine formalisierte Möglichkeit, Daten auf „heiße“, „warme“ und „kalte“ Knoten aufzuteilen. Dabei kommt ein Knotenrollenattribut zum Einsatz, das automatisch die Index-Lifecycle-Management-Richtlinie für Ihre Knoten definiert. Durch die Zuweisung von „Heiß“-, „Warm“- und „Kalt“-Rollen zu Knoten lässt sich der Prozess der Umschichtung von Daten von teurem Speicherplatz mit hoher Performance auf Speicherplatzoptionen mit geringeren Kosten und geringerer Performance vereinfachen und automatisieren, ohne dass darunter die Möglichkeit leidet, Daten abzufragen und Erkenntnisse zu gewinnen.

Informationen zu Daten-Tiers
  • „Heiß“: Daten werden aktiv aktualisiert und häufig abgefragt und dazu auf der Instanz mit der besten Performance gespeichert
  • „Warm“: Daten werden seltener abgefragt und daher auf Instanzen mit einer geringeren Performance gespeichert

  • „Kalt“: Daten werden nur noch gelesen und selten abgefragt und daher in durchsuchbaren Snapshots gespeichert, was deutliche Kosteneinsparungen ermöglicht, ohne die Performance zu beeinträchtigen

Snapshot und Wiederherstellung

Ein Snapshot ist eine Sicherung aus einem aktiven Elasticsearch-Cluster. Snapshots können entweder für einzelne Indizes oder für ein gesamtes Cluster erstellt und in einem Repository in einem freigegebenen Dateisystem gespeichert werden. Außerdem sind Plugins verfügbar, mit denen Sie Remote-Repositorys unterstützen können.

Informationen zu Snapshots und Wiederherstellung

Durchsuchbare Snapshots

Mit durchsuchbaren Snapshots erhalten Sie die Möglichkeit, Daten in Ihren Snapshots direkt abzufragen – in einem Bruchteil der Zeit, die eine herkömmliche Wiederherstellung von Daten aus einem Snapshot benötigen würde. Möglich gemacht wird dies dadurch, dass nur die Teile des jeweiligen Snapshot-Index gelesen werden, die für die Erfüllung der Anfrage notwendig sind. Zusammen mit der Daten-Tier für „kalte“ Daten können durchsuchbare Snapshots Ihre Datenspeicherkosten deutlich reduzieren, da die Replikat-Shards unter vollständiger Erhaltung der Durchsuchbarkeit in Objektspeichersystemen wie Amazon S3, Azure Storage oder Google Cloud Storage gesichert werden.

Informationen zu durchsuchbaren Snapshots

Snapshot-Lifecycle-Management

Als im Hintergrund laufende Snapshot-Manager bieten Snapshot-Lifecycle-Management(SLM)-APIs Administratoren die Möglichkeit zu definieren, in welcher Abfolge die Snapshots eines Elasticsearch-Clusters angelegt werden sollen. Dank einer dedizierten Benutzeroberfläche können Nutzer:innen mit SLM Aufbewahrungseinstellungen für SLM-Richtlinien konfigurieren und Snapshots automatisch anlegen und löschen lassen sowie die Häufigkeit der Snapshot-Erstellung einrichten. So kann sichergestellt werden, dass Cluster-Backup ausreichend häufig erstellt werden, um die Einhaltung der Kunden-SLAs zu gewährleisten.

Informationen zu SLM

Snapshot-basierte Peer-Wiederherstellungen

Mit dieser Funktion kann Elasticsearch Replikate wiederherstellen und primäre Shards aus einem aktuellen Snapshot verschieben, wenn Daten verfügbar sind. So werden die Betriebskosten für Cluster reduziert, die in einer Umgebung ausgeführt werden, in der die Kosten für die Übertragung von Daten zwischen Knoten höher sind als die Kosten für die Wiederherstellung von Daten auf der Basis eines Snapshots.

Informationen zu Snapshot-basierten Peer-Wiederherstellungen

Daten-Rollups

Verlaufsdaten sind oft extrem hilfreich für die Analyse, werden allerdings oft nicht aufbewahrt, weil es kostspielig ist, riesige Datenmengen zu archivieren. Die Aufbewahrungsfristen werden daher eher aus finanziellen Gründen begrenzt als durch die Nützlichkeit umfassender Verlaufsdaten. Mit der Rollup-Funktion können Sie Verlaufsdaten zusammenfassen und speichern, um sie weiterhin für Analysen zu können, jedoch zu einem Bruchteil der Speicherungskosten für Rohdaten.

Informationen zu Rollups
    screenshot-rollups-management-ui-feature-page.jpg

Datenstreams

Datenstreams sind eine bequeme und skalierbare Möglichkeit, kontinuierlich generierte Zeitreihendaten zu ingestieren, zu suchen und zu verwalten.

Mehr über Datenstreams erfahren

CLI-Tools

Elasticsearch stellt eine Vielzahl von Tools bereit, mit denen Sie in der Befehlszeile Sicherheitsfunktionen konfigurieren und andere Aufgaben ausführen können.

Informationen zu den verschiedenen CLI-Tools

Upgrade-Assistant-Benutzeroberfläche

Mit der Upgrade-Assistant-Benutzeroberfläche können Sie Ihr Upgrade auf die neueste Version von Elastic Stack vorbereiten. In der Benutzeroberfläche identifiziert der Assistent die veralteten Einstellungen in Ihrem Cluster und Ihren Indizes und unterstützt Sie bei der Behebung von Problemen, inklusive der erneuten Erstellung von Indizes.

Informationen zum Upgrade Assistant
    screenshot-management-upgrade-assistant-8-0-feature-page.jpg

Upgrade Assistant-API

Mit der Upgrade Assistant-API können Sie den Upgradestatus Ihres Elasticsearch-Clusters überprüfen und Indizes neu indizieren, die in der vorherigen Hauptversion erstellt wurden. Der Assistent hilft Ihnen dabei, Ihre Umgebung auf die nächste Hauptversion von Elasticsearch vorzubereiten.

Informationen zur Upgrade Assistant-API

Nutzer- und Rollenverwaltung

Sie können Nutzer:innen und Rollen mit der API oder mit den Managementfunktionen in Kibana erstellen und verwalten.

Informationen zum Nutzer- und Rollenmanagement
    screenshot-kibana-management-security-feature-page.jpg

Transformationen

Transformationen sind zweidimensionale Datenstrukturen in Tabellenform, die indizierte Daten „leichter verdaulich“ machen. Transformationen führen Aggregationen aus, die Ihre Daten in einen neuen, Entity-zentrischen Index überführen. Durch Transformieren und Zusammenfassen Ihrer Daten können Sie sie auf verschiedene Art und Weise visualisieren und analysieren und sie auch als Quelle für andere Machine-Learning-Analysen bereitstellen.

Informationen zu Transformationen

Verwaltung und Betrieb

Alerting

Mit unseren Alerting-Features erhalten Sie den vollen Leistungsumfang der Elasticsearch-Abfragesprache, um relevante Änderungen in Ihren Daten identifizieren zu können. Mit anderen Worten: Für alles, was Sie in Elasticsearch abfragen können, kann auch ein Alert eingerichtet werden.

Hochverfügbares und skalierbares Alerting

Elastic Stack wird nicht ohne guten Grund in großen und kleinen Unternehmen für Alerting-Funktionen eingesetzt. Daten aus beliebigen Quellen und in beliebigen Formaten werden zuverlässig und sicher ingestiert, und Analyst:innen können wichtige Daten in Echtzeit durchsuchen, analysieren und visualisieren, jeweils mit nutzerdefiniertem und zuverlässigem Alerting.

Informationen zum Alerting

Benachrichtigungen per E‑Mail, Webhooks, IBM Resilient, Jira, Microsoft Teams, PagerDuty, ServiceNow, Slack und xMatters

Sie können Alerts mit vorkonfigurierten Integrationen für E‑Mail, IBM Resilient, Jira, Microsoft Teams, PagerDuty, ServiceNow, Slack und xMatters verknüpfen. Mittels Webhook-Ausgabe sind auch Integrationen für jedes andere Drittanbietersystem möglich.

Informationen zu Benachrichtigungsoptionen
    screenshot-alerting-actions-integrations-connectors-710-656x369.png

Alerting-Benutzeroberfläche

Übernehmen Sie die Kontrolle über Ihre Alerts, indem Sie sie über eine zentrale Benutzeroberfläche einsehen, erstellen und verwalten. Lassen Sie sich in Echtzeit darüber informieren, welche Alerts aktiv sind und welche Maßnahmen ergriffen wurden.

Informationen zum Konfigurieren von Alerts in Kibana
    screenshot-alerting-management-interface-710-748x421.png

Benachrichtigungsunterdrückung und Rauschreduzierung

Die Ausgabe von Benachrichtigungen und Aktionen kann für einen individuell festgelegten Zeitraum angehalten werden. Da die Regeln nach Ablauf der Zeit automatisch wieder aktiviert werden, kann es nicht mehr passieren, dass Sie eine Aktion verpassen, weil Sie vergessen haben, eine Regel nach der Lösung eines unverhofft aufgetretenen Problems oder nach einer geplanten Wartung wieder zu aktivieren.

Informationen zur Benachrichtigungsunterdrückung und Rauschreduzierung

    Suche-Schwellenwert-Alerts für Discover

    Suche-Schwellenwert-Regeln in Discover basieren auf Elasticsearch-Abfragen – sie analysieren in einem bestimmten Zeitintervall, ob bei Dokumenten mit den angegebenen Kriterien ein Schwellenwert erreicht wurde, und lösen gegebenenfalls einen Alert aus. Die Nutzer:innen können eine Aktion erstellen und zuweisen, wenn eine Benachrichtigung ausgegeben werden soll, oder festlegen, dass automatisch ein Incident erstellt wird.

    Informationen zu Suche-Schwellenwert-Alerts für Discover

    Verwaltung und Betrieb

    Stack-Security

    Die Security-Features des Elastic Stack sorgen dafür, dass nur die richtigen Personen Zugriff erhalten. Mit diesen Funktionen können IT-, Operations- und Entwicklungsteams Nutzer:innen verwalten und Angriffe abwehren – und Führungskräfte und Kunden haben die Gewissheit, dass die im Elastic Stack gespeicherten Daten sicher und geschützt sind.

    Sichere Einstellungen

    Es gibt Einstellungen, die besonders sicherheitsrelevant sind und bei denen es nicht ausreicht, die Werte allein über Dateisystemberechtigungen zu schützen. In diesen Fällen bieten die Elastic Stack-Komponenten Schlüsselspeicher, die dabei helfen, den unerlaubten Zugriff auf sicherheitsrelevante Cluster-Einstellungen zu verhindern. Für zusätzliche Sicherheit können die Schlüsselspeicher für Elasticsearch und Logstash optional mit einem Passwort geschützt werden.

    Informationen zu sicheren Einstellungen

    Verschlüsselte Kommunikation

    Sie können netzwerkbasierte Angriffe auf die Daten in Elasticsearch-Knoten abwehren, indem Sie den Datenverkehr mit SSL/TLS verschlüsseln, Zertifikate für die Knotenauthentifizierung verwenden, usw.

    Informationen zur verschlüsselten Kommunikation

    Unterstützung für Verschlüsselung inaktiver Daten

    Der Elastic Stack implementiert zwar keine Verschlüsselung für ruhende Daten, aber wir empfehlen trotzdem, eine Verschlüsselung auf Laufwerksebene für alle Hostcomputer zu konfigurieren. Auch die in den Snapshot-Zielen gespeicherten inaktiven Daten müssen verschlüsselt werden.

    Rollenbasierte Zugriffssteuerung (RBAC)

    Mit der rollenbasierten Zugriffssteuerung (RBAC) können Sie Nutzer:innen autorisieren, indem Sie Privilegien zu Rollen und Rollen zu Nutzer:innen oder Gruppen zuweisen.

    Informationen zur rollenbasierten Zugriffssteuerung (RBAC)
      screenshot-security-users-roles-feature-page.jpg

    Attributbasierte Zugriffssteuerung (ABAC)

    Die Sicherheitsfunktionen des Elastic Stack stellen außerdem einen Mechanismus für die attributbasierte Zugriffssteuerung bereit, mit dem Sie Attribute verwenden können, um den Zugriff auf Dokumente in Suchabfragen und Aggregationen einzuschränken. Außerdem können Sie eine Zugriffsrichtlinie in einer Rollendefinition implementieren, um festzulegen, dass die Nutzer:innen ein Dokument nur lesen dürfen, wenn sie alle erforderlichen Attribute haben.

    Informationen zur attributbasierten Zugriffssteuerung (ABAC)

    Steuerung des anonymen Zugriffs (für öffentliches Teilen)

    Sie können jetzt spezialisierte Links erstellen, mit denen jeder auch ohne Abfrage von Anmeldeinformationen auf ein Asset zugreifen kann – ob Karte, Dashboard oder praktisch irgendein in Kibana gespeichertes Objekt.

    Informationen zum anonymen Zugriff

    Security auf Feld- und Dokumentebene

    Mit der Sicherheit auf Feldebene können Sie einschränken, auf welche Felder die Nutzer:innen Lesezugriff haben. Insbesondere können Sie einschränken, welche Felder für dokumentbasierte Lese-APIs verfügbar sind.

    Informationen zur Sicherheit auf Feldebene

    Mit der Sicherheit auf Dokumentebene können Sie einschränken, auf welche Dokumente die Nutzer:innen Lesezugriff haben. Insbesondere können Sie einschränken, welche Dokumente für dokumentbasierte Lese-APIs verfügbar sind.

    Informationen zur Sicherheit auf Dokumentenebene

    Audit-Logging

    Aktivieren Sie die Auditing-Funktionen, um sicherheitsrelevante Ereignisse wie Authentifizierungsfehler und abgelehnte Verbindungen im Blick zu behalten. Loggen Sie diese Ereignisse, um Ihren Cluster auf verdächtige Aktivitäten zu überwachen und bei einem Angriff Beweise sammeln zu können.

    Informationen zum Audit-Logging

    IP-Filterung

    Sie können die IP-Filterung auf Anwendungs-Clients, Knoten-Clients oder Transport-Clients sowie auf andere Knoten anwenden, die versuchen, dem Cluster beizutreten. Wenn die IP-Adresse eines Knotens in der Negativliste enthalten ist, erlauben die Elasticsearch-Sicherheitsfunktionen zwar eine Verbindung mit Elasticsearch, aber diese wird sofort geschlossen und es werden keine Anfragen verarbeitet.

    IP-Adresse oder -Bereich

    xpack.security.transport.filter.allow: "192.168.0.1"
    xpack.security.transport.filter.deny: "192.168.0.0/24"
    

    Whitelist

    xpack.security.transport.filter.allow: [ "192.168.0.1", "192.168.0.2", "192.168.0.3", "192.168.0.4" ]
    xpack.security.transport.filter.deny: _all
    

    IPv6

    xpack.security.transport.filter.allow: "2001:0db8:1234::/48"
    xpack.security.transport.filter.deny: "1234:0db8:85a3:0000:0000:8a2e:0370:7334"
    

    Hostname

    xpack.security.transport.filter.allow: localhost
    xpack.security.transport.filter.deny: '*.google.com'
    
    Informationen zur IP-Filterung

    Security-Realms

    Die Sicherheitsfunktionen des Elastic Stack authentifizieren Nutzer:innen mithilfe von Realms und einem oder mehreren Token-basierten Authentifizierungsdiensten. Realms werden verwendet, um Nutzer:innen auf Basis von Authentifizierungs-Tokens aufzulösen und zu authentifizieren. Die Sicherheitsfunktionen stellen eine Reihe von integrierten Realms bereit.

    Informationen zu Sicherheits-Realms

    Single Sign-on (SSO)

    Der Elastic Stack unterstützt Single Sign-on (SSO) in Kibana mit SAML und verwendet Elasticsearch als Backend-Dienst. Mit der SAML-Authentifizierung können sich die Nutzer:innen mit einem externen Identitätsanbieter wie etwa Okta oder Auth0 bei Kibana anmelden.

    Informationen zu SSO

    Integration für Drittanbieter-Sicherheitssysteme

    Falls Sie ein Authentifizierungssystem verwenden, das nicht mit den vorkonfigurierten Sicherheitsfunktionen des Elastic Stack unterstützt wird, können Sie einen nutzerdefinierten Realm für die Authentifizierung Ihrer Nutzer:innen erstellen.

    Informationen zu externen Sicherheitsintegrationen

    FIPS 140-2-Modus

    Elasticsearch bietet einen FIPS 140-2-kompatiblen Modus, der in einer entsprechenden JVM ausgeführt werden kann. Die Einhaltung der Verfahrensstandards wird durch von FIPS genehmigte und von NIST empfohlene Verschlüsselungsalgorithmen sichergestellt.

    Informationen zur FIPS-140‑2-Kompatibilität

    Section 508

    Wenn Ihr Elastic Stack-Deployment die Compliance-Anforderungen von Section 508 erfüllen muss, dann sind Sie mit unseren Sicherheitsfunktionen auf der sicheren Seite.

    Informationen zu Compliance-Anforderungen

    Standards (GDPR)

    Es besteht eine hohe Wahrscheinlichkeit, dass Ihre Daten nach den DSGVO-Richtlinien als personenbezogene Daten klassifiziert sind. Erfahren Sie, wie Sie die Funktionen des Elastic Stack – von der rollenbasierten Zugriffssteuerung bis hin zur Datenverschlüsselung – nutzen können, damit Ihre Elasticsearch-Daten die Datenschutz- und Datenverarbeitungsanforderungen der DSGVO erfüllen.

    DSGVO-Whitepaper lesen

    Verwaltung und Betrieb

    Bereitstellung

    Öffentliche Cloud, private Cloud oder irgendwo dazwischen – wir machen Ihnen die Nutzung und Verwaltung des Elastic Stack einfach.

    Herunterladen und installieren

    Der Einstieg war noch nie so einfach. Sie können Elasticsearch und Kibana als Archiv oder mit einem Paket-Manager herunterladen und installieren. Fangen Sie im Handumdrehen damit an, Daten zu indexieren, zu analysieren und zu visualisieren. Mit der Standarddistribution können Sie außerdem in einem kostenlosen 30-tägigen Test „Platinum“-Funktionen wie Machine Learning, Sicherheit, Graph-Analytics und vieles mehr ausprobieren.

    Elastic Stack herunterladen

    Elastic Cloud

    Elastic Cloud ist unsere wachsende Familie von SaaS-Angeboten, mit denen Sie Elastic-Produkte und -Lösungen in der Cloud bereitstellen, verwalten und skalieren können. Ob nutzerfreundliche gehostete und verwaltete Elasticsearch-Benutzeroberfläche oder leistungsfähige Lösungen für die Suche – Elastic Cloud ist das Sprungbrett für die mühelose Nutzung der Vorteile von Elastic. Probieren Sie unsere Elastic Cloud-Produkte 14 Tage lang kostenlos aus – keine Kreditkarte erforderlich.

    Erste Schritte mit Elastic Cloud

    Elastic Cloud Enterprise

    Mit Elastic Cloud Enterprise (ECE) können Sie Elasticsearch und Kibana in beliebiger Größe und auf jeder Infrastruktur bereitstellen und über eine zentrale Konsole verwalten. Sie können frei auswählen, wo Sie Elasticsearch und Kibana ausführen möchten: auf physischer Hardware, in einer virtuellen Umgebung, in einer privaten Cloud, in einem privaten Bereich innerhalb einer öffentlichen Cloud oder einfach nur in einer öffentlichen Cloud (zum Beispiel Google, Azure, AWS). Wir unterstützen alle Optionen.

    Probieren Sie ECE 30 Tage lang kostenlos aus

    Elastic Cloud auf Kubernetes

    Elastic Cloud auf Kubernetes basiert auf dem Kubernetes-Operator-Muster und erweitert die grundlegenden Orchestrierungsfunktionen von Kubernetes um die Einrichtung und die Verwaltung von Elasticsearch und Kibana auf Kubernetes zu unterstützen. Mit Elastic Cloud auf Kubernetes können Sie sämtliche Prozesse rund um die Bereitstellung, Aktualisierung, Snapshot-Erstellung, Skalierung, Hochverfügbarkeit, Sicherheit und mehr für die Ausführung von Elasticsearch in Kubernetes vereinfachen.

    Informationen zur Bereitstellung mit Elastic Cloud auf Kubernetes

    Helm Charts

    Mit den offiziellen Helm Charts für Elasticsearch und Kibana steht Ihr Deployment innerhalb weniger Minuten.

    Informationen zu den offiziellen Elastic Helm Charts

    Docker-Containerisierung

    Mit den offiziellen Containern aus Docker Hub können Sie Elasticsearch und Kibana mühelos in Docker ausführen.

    Elastic Stack in Docker ausführen

    Verwaltung und Betrieb

    Clients

    Mit dem Elastic Stack können Sie selbst bestimmen, wie Sie mit Ihren Daten arbeiten möchten. Mit den RESTful APIs, Sprach-Clients, robuster DSL und mehr (sogar SQL) sind wir flexibel genug, um Sie in jeder Lage zu unterstützen.

    REST-API

    Elasticsearch stellt eine umfangreiche und leistungsstarke JSON-basierte REST-API bereit, die Sie für die Interaktion mit Ihrem Cluster verwenden können.

    Informationen zur REST-API
    • Überprüfen Sie Integrität, Status und Statistiken Ihrer Cluster, Knoten und Indizes.

    • Verwalten Sie Ihre Cluster, Knoten, Indexdaten und Metadaten.

    • Führen Sie CRUD(Create, Read, Update, and Delete)- und Suchvorgänge für Ihre Indizes aus.

    • Nutzen Sie erweiterte Suchfunktionen wie Paginierung, Sortierung, Filter, Skripting, Aggregationen und vieles mehr.

    Sprachclients

    Elasticsearch verwendet standardmäßige RESTful APIs und JSON. Außerdem entwickeln und pflegen wir Clients in vielen anderen Sprachen, wie Java, Python, .NET, SQL und PHP. Dazu ist unsere Community fleißig dabei, weitere Clients zu entwickeln. Sie sind nutzerfreundlich, intuitiv und setzen – ganz im Stil von Elasticsearch – Ihrem Ideenreichtum keine Grenzen.

    Entdecken Sie die verfügbaren Sprachclients

    Konsole

    Die Konsole ist eines der Entwickler-Tools in Kibana. Hier können Sie Anfragen zusammenstellen, mit einer cURL-ähnlichen Syntax an Elasticsearch senden und die Antworten auf Ihre Anfragen anzeigen.

    Informationen zur Konsole
      screenshot-kibana-console-feature-page.jpg

    Elasticsearch DSL

    Elasticsearch stellt eine komplette Abfrage-DSL (domain-specific language, domänenspezifische Sprache) auf JSON-Basis bereit, mit der Sie Abfragen definieren können. Die Abfrage-DSL stellt leistungsstarke Suchoptionen für die Volltextsuche bereit, inklusive Begriffs- und Satzabgleich, Fuzziness, Platzhalter, regulärer Ausdrücke, verschachtelter Abfragen, Geo-Abfragen und mehr.

    Informationen zu Elasticsearch DSL
    GET /de/_search
    {
        "query": {
            "match" : {
                "message" : {
                    "query" : "this is a test",
                    "operator" : "and"
                }
            }
        }
    }
    

    Elasticsearch SQL

    Elasticsearch SQL ist ein Feature, mit dem Sie SQL-ähnliche Abfragen in Echtzeit an Elasticsearch stellen können. Egal ob über die REST-Schnittstelle, in der Befehlszeile oder per JDBC, jeder Client kann SQL verwenden, um Daten nativ in Elasticsearch zu suchen und zu aggregieren.

    Informationen zu Elasticsearch SQL
      screenshot-sql-search-feature-page.jpg

    Event Query Language (EQL)

    EQL (Event Query Language) wurde speziell für die Abfrage spezifischer Ereignisabfolgen entwickelt und ist damit ideal für Security-Analytics-Anwendungsfälle geeignet.

    Informationen zu EQL

    JDBC-Client

    Der Elasticsearch SQL JDBC ist ein leistungsstarker JDBC-Treiber für Elasticsearch mit vollem Funktionsumfang. Dieser Type-4-Treiber ist ein plattformunabhängiger, eigenständiger, reiner Java-Treiber, der sich direkt mit der Datenbank verbindet und JDBC-Aufrufe in Elasticsearch SQL konvertiert.

    Informationen zum JDBC-Client

    ODBC-Client

    Der Elasticsearch SQL ODBC-Treiber ist ein 3.80 ODBC-Treiber für Elasticsearch mit vollem Funktionsumfang. Dieser Core-Treiber stellt alle Funktionen bereit, die in der Elasticsearch SQL ODBC API verfügbar sind, und wandelt ODBC-Aufrufe in Elasticsearch SQL um.

    Informationen zum ODBC-Client

    Tableau-Connector für Elasticsearch

    Mit dem Tableau-Connector für Elasticsearch können Nutzer:innen von Tableau Desktop und Tableau Server einfach und schnell auf Daten in Elasticsearch zugreifen.

    Tableau-Connector herunterladen

    Ingestieren und Anreichern

    Ingestieren und Anreichern

    Datenquellen

    Egal welche Art von Daten Sie verwenden, Beats eignen sich hervorragend für deren Erfassung. Sie werden auf Ihren Servern oder in Ihren Containern installiert oder als Funktionen bereitgestellt und zentralisieren Ihre Daten in Elasticsearch. Wenn Sie zusätzliche Verarbeitungsleistung benötigen, können Beats Ihre Daten auch zur Umwandlung und zum Parsing an Logstash senden.

    Betriebssysteme

    Mit Auditbeat können Sie Ihre Linux-Audit-Framework-Daten erfassen und die Integrität Ihrer Dateien überwachen. Die entsprechenden Ereignisse werden in Echtzeit zur weiteren Analyse an den Rest des Elastic Stack gesendet.

    Informationen zu Auditbeat

    Mit Winlogbeat behalten Sie den Überblick über Ihre Windows-basierte Infrastruktur. Winlogbeat streamt Windows-Ereignisprotokolle in Echtzeit und ressourcenschonend an Elasticsearch und Logstash.

    Informationen zu Winlogbeat

    Webserver und Proxys

    Mit Filebeat und Metricbeat können Sie Ihre Web- und Proxyserver auf vielerlei Arten überwachen, unter anderem mit Modulen und vorkonfigurierten Dashboards für NGINX, Apache, HAProxy und IIS.

    Entdecken Sie die verfügbaren Filebeat-Module
    screenshot-filebeat-modules-nginx-feature-page.jpg

    Datenspeicher und Warteschlangen

    Filebeat und Metricbeat enthalten interne Module zur Vereinfachung der Erfassung, Analyse und Visualisierung allgemeiner Log-Formate und Systemmetriken aus Datenspeichern, Datenbanken und Warteschlangensystemen wie MySQL, MongoDB, PostgreSQL, Microsoft SQL und mehr.

    Entdecken Sie die verfügbaren Metricbeat-Module
    screenshot-filebeat-modules-mysql-feature-page.jpg

    Cloud-Dienste

    Mit einer zentralen Ansicht behalten Sie den Überblick über die Performance und Verfügbarkeit einer breiten Palette von Cloud-Diensten von Amazon Web Services, Google Cloud und Microsoft Azure und können so Ihre Daten effizient analysieren. Darüber hinaus hilft Ihnen Functionbeat dabei, Ihre Serverless-Cloud-Architektur anhand von Kinesis-, SQS- und CloudWatch-Logdaten ohne viel Aufwand zu überwachen.

    Informationen zu Cloud-Integrationen
    diagram-functionbeat-architecture.svg

    Container und Orchestrierung

    Ob Überwachung Ihrer Anwendungs-Logs oder Ihrer Kubernetes-Metriken oder Leistungsanalyse Ihrer Docker-Container – mit der für Infrastrukturoperationen optimierten App können Sie all Ihre Daten einfach und schnell visualisieren und durchsuchen.

    Informationen zum Container-Monitoring
    • Das Autodiscover-Feature in Metricbeat und Filebeat hält Sie über Veränderungen in Ihrer Umgebung auf dem Laufenden.

    • Mit Docker- und Kubernetes-API-Hooks können Sie das Hinzufügen von Modulen und Logpfaden automatisieren und Ihre Monitoring-Einstellungen dynamisch anpassen lassen.

    Netzwerkdaten

    Netzwerkinformationen wie HTTP, DNS und SIP helfen Ihnen, wichtige Aspekte, wie Anwendungslatenz und ‑fehler, Reaktionszeiten, SLA-Performance, Nutzerzugriffsmuster und Trends, zu überwachen. Diese Daten geben Aufschluss darüber, wie die Daten durch das Netzwerk fließen.

    Informationen zu Packetbeat
    screenshot-siem-network-view.jpg

    Security-Daten

    Der Schlüssel zum Erkennen von Bedrohungen kann überall liegen. Deshalb ist es auch so wichtig, dass Sie jederzeit genau wissen, was in Ihrer Umgebung vor sich geht. Agent und Beats ingestieren Security-Daten aus einer Unzahl kommerzieller und OSS-Quellen und ermöglichen so eine umfassende Datenüberwachung und Bedrohungserkennung.

    Informationen zum Schützen von Daten mit Elastic Security
    screenshot-hosts-events-graph.png

    Verfügbarkeitsdaten

    Egal ob Sie einen Dienst auf demselben Host oder über das Internet testen – mit Heartbeat können Sie im Handumdrehen Daten zu Verfügbarkeit und Reaktionszeiten abrufen.

    Informationen zu Heartbeat
    screenshot-metrics-sensor-telemetry.png

    Dateiimport

    Mit dem File Data Visualizer können Sie CSV-, NDJSON- oder Log-Dateien in einen Elasticsearch-Index hochladen. File Data Visualizer verwendet die File Structure API, um das Dateiformat und die Feldzuordnungen zu identifizieren. Anschließend können Sie die Daten auswählen und in einen Index importieren.

    Informationen zum Importieren von Datendateien
    screenshot-file-data-visualizer-start-feature-page.png

    Ingestieren und Anreichern

    Datenanreicherung

    Mit einer Vielzahl von Analyzern, Tokenizern, Filtern und Anreicherungsoptionen zur Indexzeit wandelt der Elastic Stack Ihre Rohdaten in wertvolle Informationen um.

    Prozessoren

    Verwenden Sie einen Ingest-Knoten, um Dokumente vor der eigentlichen Indexierung vorzuverarbeiten. Der Ingest-Knoten akzeptiert Bulk- und Indexanfragen, wendet Transformationen an und übergibt die Dokumente anschließend zurück an den Index oder die Bulk-APIs. Der Ingest-Knoten stellt mehr als 25 verschiedene Prozessoren bereit, darunter u. a. „append“, „convert“, „date“, „dissect“, „drop“, „fail“, „grok“, „join“, „remove“, „set“, „split“, „sort“ und „trim“.

    Informationen zu Ingest-Prozessoren

    Analyzers

    Bei der Analyse wird Text, zum Beispiel der Text einer E-Mail, in Token oder Begriffe konvertiert, die anschließend zum invertierten Index hinzugefügt werden, um sie durchsuchbar zu machen. Für die Analyse wird entweder ein integrierter oder ein nutzerdefinierter Analyzer verwendet werden, der pro Index mit einer Kombination aus Tokenizern und Filtern definiert wird.

    Informationen zu Data Analyzers

    Beispiel: Standard-Analyzer (Standard)

    Eingabe: "The 2 QUICK Brown-Foxes jumped over the lazy dog's bone."

    Ausgabe: the 2 quick brown foxes jumped over the lazy dog's bone

    Tokenizer

    Ein Tokenizer empfängt einen Stream von Zeichen, unterteilt ihn in einzelne Token (normalerweise Wörter) und gibt einen Token-Stream aus. Der Tokenizer ist außerdem dafür verantwortlich, die Reihenfolge oder Position der einzelnen Begriffe (für Suchen nach Sätzen oder der Nähe von Wörtern zueinander) sowie die Zeichen-Offsets für Anfang und Ende des ursprünglichen Worts zu speichern, das der Begriff abbildet (zum Hervorheben von Such-Snippets). Elasticsearch enthält eine Reihe von integrierten Tokenizern, mit denen Sie nutzerdefinierte Analyzer erstellen können.

    Informationen zu Tokenizern

    Beispiel: Leerzeichen-Tokenizer

    Eingabe: "The 2 QUICK Brown-Foxes jumped over the lazy dog's bone."

    Ausgabe: The 2 QUICK Brown-Foxes jumped over the lazy dog's bone.

    Filter

    Token-Filter nehmen einen Stream von Tokens von einem Tokenizer entgegen und können Token modifizieren (z. B. in Kleinbuchstaben umwandeln), Token löschen (z. B. Trennwörter entfernen) oder Token hinzufügen (z. B. Synonyme). Elasticsearch enthält eine Reihe von vorkonfigurierten Token-Filtern, mit denen Sie nutzerdefinierte Analyzer erstellen können.

    Informationen zu Token-Filtern

    Zeichenfilter werden verwendet, um den Zeichenstream zu verarbeiten, bevor er an den Tokenizer übergeben wird. Ein Zeichenfilter erhält den Ausgangstext als Zeichenstream und kann Zeichen hinzufügen, entfernen oder verändern, um den Stream zu transformieren. Elasticsearch enthält eine Reihe von vorkonfigurierten Zeichenfiltern, mit denen Sie nutzerdefinierte Analyzer erstellen können.

    Informationen zu Zeichenfiltern

    Sprachanalyse

    Suchen Sie in Ihrer eigenen Sprache. Elasticsearch bietet mehr als 30 verschiedene Sprach-Analyzer an, darunter auch viele Sprachen mit nicht-lateinischem Alphabet wie etwa Russisch, Arabisch und Chinesisch.

    Verfügbare Sprachfilter anzeigen

    Grok

    Ein Grok-Muster funktioniert wie ein regulärer Ausdruck und unterstützt wiederverwendbare Alias-Ausdrücke. Mit Grok können Sie strukturierte Felder aus einem einzelnen Textfeld in einem Dokument extrahieren. Dieses Tool eignet sich perfekt für Syslog-Logs, Webserver-Logs wie etwa von Apache, MySQL-Logs und andere Log-Formate, die eher für Menschen als für eine automatische Analyse geschrieben werden.

    Informationen zu Grok
    screenshot-grok-debugger-feature-page.jpg

    Feldtransformation

    Mit Datafeeds können Sie Skripts hinzufügen, um Ihre Daten vor der Analyse zu transformieren. Datafeeds enthalten eine optionale Eigenschaft „script_fields“, mit der Sie Skripts angeben können, um nutzerdefinierte Ausdrücke auszuwerten und Skriptfelder zurückzugeben. Mit dieser Funktion können Sie eine Vielzahl an Transformationen ausführen.

    Informationen zu Feldtransformationen
    • Numerische Felder hinzufügen

    • Zeichenfolgen verketten, abschneiden und transformieren

    • Token ersetzen

    • Abgleich und Verkettung mit regulären Ausdrücken

    • Zeichenfolgen nach Domain-Name aufteilen

    • „geo_point“-Daten transformieren

    Externe Suchen

    Reichern Sie Ihre Daten beim Ingestieren mit Logstash-Plugins für externe Suchen an. Ergänzen Sie Logeinträge um zusätzlichen Kontext mit Informationen wie den Standorten von Client-IPs, DNS-Suchergebnissen oder sogar Daten aus benachbarten Logeinträgen. Logstash stellt eine Vielzahl von Such-Plugins bereit.

    Informationen zu externen Logstash-Suchen

    Match-Anreicherungsprozessor

    Mit dem Match-Anreicherungsprozessor können Nutzer:innen während des Ingestierens Daten-Lookups ausführen und den Index ermitteln, aus dem angereicherte Daten geholt werden sollen. Das hilft Beats-Nutzer:innen, die ihren Daten ein paar Elemente hinzufügen müssen – statt zwischen Beats und Logstash hin- und herwechseln zu müssen, können die Nutzer:innen direkt in der Ingestion-Pipeline nachsehen. Außerdem hilft der Prozessor dabei, Daten zu normalisieren und so zu besseren Analytics-Ergebnissen und gängigeren Abfragen zu kommen.

    Informationen zum Match-Anreicherungsprozessor

    Geo-Match-Anreicherungsprozessor

    Der Geo-Match-Anreicherungsprozessor ist eine nützliche und praktische Möglichkeit, die Suche und Aggregation zu verbessern, indem die Geodaten der Nutzer:innen genutzt werden, ohne dass Abfragen oder Aggregationen mittels Geokoordinaten definiert werden müssen. Wie auch schon beim Match-Anreicherungsprozessor können Nutzer:innen während des Ingestierens Daten-Lookups ausführen und den optimalen Index ermitteln, aus dem angereicherte Daten geholt werden sollen.

    Informationen zum Geo-Match-Anreicherungsprozessor

    Ingestieren und Anreichern

    Module und Integrationen

    Wie Ihre Daten in den Elastic Stack gelangen, bestimmen Sie: RESTful APIs, Sprach-Clients, Aufnahmeknoten, leichtgewichtige Shipper, Elastic Agent oder Logstash – alles ist möglich. Sie müssen sich nicht auf bestimmte Sprachen festlegen, und da wir Open Source sind, gelten keinerlei Beschränkungen für die Datentypen, die aufgenommen werden können. Wenn Sie einen ganz speziellen Datentyp übertragen müssen, stellen wir die Bibliotheken und Schritte zur Erstellung eigener Aufnahmemethoden zur Verfügung. Und Sie können diese Lösungen anschließend mit der Community teilen, damit andere Nutzer:innen das Rad nicht neu erfinden müssen.

    Clients und APIs

    Elasticsearch verwendet standardmäßige RESTful APIs und JSON. Außerdem entwickeln und pflegen wir Clients in vielen anderen Sprachen, wie Java, Python, .NET, SQL und PHP. Dazu ist unsere Community fleißig dabei, weitere Clients zu entwickeln. Sie sind nutzerfreundlich, intuitiv und setzen – ganz im Stil von Elasticsearch – Ihrem Ideenreichtum keine Grenzen.

    Entdecken Sie die verfügbaren Sprachclients und APIs

    Ingest-Knoten

    Elasticsearch stellt eine Vielzahl von Knoten bereit, unter anderem einen speziellen Knoten für die Dateningestion. Ingest-Knoten können Vorverarbeitungs-Pipelines ausführen, die aus einem oder mehreren Ingest-Prozessoren bestehen. Je nachdem, welche Art von Operation die Ingest-Prozessoren ausführen, und welche Ressourcen benötigt werden, kann es sinnvoll sein, spezielle Ingest-Knoten für bestimmte Aufgaben einzurichten.

    Informationen zu Ingest-Knoten

    Elastic Agent

    Elastic Agent ist ein einzelner, zentraler Agent, der auf Hosts oder in Containern bereitgestellt werden kann und Daten erfasst und sie an den Elastic Stack sendet. Mit seiner Hilfe können Hosts in die Lage versetzt werden, Logdaten, Metriken und andere Datentypen zu überwachen. Hosts mit einem Elastic Agent können die Endpoint Security-Integration nutzen, um sich auf sicherheitsrelevante Ereignisse überwachen zu lassen. Die so erfassten Security-Daten lassen sich dann über die Kibana-Anwendung Elastic Security näher untersuchen.

    Informationen zu Elastic Agent

    Beats

    Beats sind Open-Source-Datenshipper, die Sie als Agents auf Ihren Servern installieren, um Betriebsdaten an Elasticsearch oder Logstash zu senden. Elastic stellt Beats bereit, mit denen Sie eine Vielzahl gängiger Logs, Metriken und anderer Datentypen erfassen können.

    Informationen zu Beats

    Community-Shipper

    Falls Sie einen sehr speziellen Anwendungsfall lösen müssen, ermutigen wir Sie dazu, einen Community Beat zu erstellen. Wir haben eine Infrastruktur eingerichtet, um den Prozess zu vereinfachen. Die komplett in Go geschriebene libbeat-Bibliothek stellt die API bereit, die sämtliche Beats verwenden, um ihre Daten nach Elasticsearch zu übertragen, die Eingabeoptionen zu konfigurieren, Logging zu implementieren, und vieles mehr.

    Leitfaden für Beats-Entwickler

    Unter den mehr als 100 von der Community beigesteuerten Beats befinden sich Agents für Cloudwatch-Logdaten und ‑Metriken, GitHub-Aktivitäten, Kafka-Themen, MySQL, MongoDB Prometheus, Apache, Twitter und vieles, vieles mehr.

    Informationen zu verfügbaren Community-Beats

    Logstash

    Logstash ist eine Open-Source-Datensammlungsengine mit Pipelining-Funktionen in Echtzeit. Logstash kann Daten aus verschiedenen Quellen dynamisch kombinieren und die Daten für Ziele Ihrer Wahl normalisieren. Bereinigen und demokratisieren Sie Ihre Daten für verschiedenste erweiterte Downstream-Analyse und Visualisierungs-Anwendungsfälle.

    Informationen zu Logstash

    Logstash-Plugins

    Sie können Ihre eigenen Eingabe-, Codec-, Filter- oder Ausgabe-Plugins zu Logstash hinzufügen. Die Plugins können unabhängig vom Logstash-Core entwickelt und bereitgestellt werden. Außerdem können Sie Ihr eigenes Java-Plugin für Logstash schreiben.

    Information dazu, wie Sie zu Logstash beitragen können

    Elasticsearch-Hadoop

    Elasticsearch für Apache-Hadoop (Elasticsearch-Hadoop oder ES-Hadoop) ist eine kostenlose und offene kleine Bibliothek, die eigenständig und autark ist und die Interaktion zwischen Hadoop-Aufträgen und Elasticsearch ermöglicht. Sie können sie nutzen, um mühelos eingebettete dynamische Suchanwendungen zu entwickeln, die Ihre Hadoop-Daten bereitstellen, oder um mithilfe von Volltextsuche, Geodatenabfragen und Aggregationen im Handumdrehen tiefgehende Analysen durchzuführen.

    Informationen zu ES-Hadoop

    Plugins und Integrationen

    Elasticsearch ist eine kostenlose und offene sprachagnostische Anwendung und kann daher problemlos mit Plugins und Integrationen erweitert werden. Plugins ermöglichen die individuelle Ergänzung der Kernfunktionen von Elasticsearch, während Integrationen externe Tools oder Module sind, die den Umgang mit Elasticsearch erleichtern.

    Verfügbare Elasticsearch-Plugins anzeigen
    • API Extension Plugins

    • Alerting-Plugins

    • Analyse-Plugins

    • Discovery-Plugins

    • Ingestions-Plugins

    • Management-Plugins

    • Mapper-Plugins

    • Sicherheits-Plugins

    • Plugins für Snapshot und Repository-Wiederherstellung

    • Speicher-Plugins

    Ingestieren und Anreichern

    Management

    Verwalten Sie Ihre Aufnahmemethoden an zentralisierten Orten in Kibana.

    Fleet

    Fleet stellt eine webbasierte Benutzeroberfläche in Kibana bereit, über die Integrationen für verbreitete Dienste und Plattformen hinzugefügt und verwaltet werden können. Zusätzlich bietet Fleet auch die Möglichkeit, eine ganze Flotte von Elastic Agents zu verwalten. Mit unseren Integrationen können Sie einfach und schnell neue Datenquellen hinzufügen, und sie enthalten „out of the box“ Dashboards, Visualisierungen, Pipelines und mehr, um strukturierte Felder aus Logs zu extrahieren.

    Informationen zu Fleet

    Zentralisiertes Logstash-Pipeline-Management

    Mit der Pipeline-Management-Benutzeroberfläche in Kibana können Sie mehrere Logstash-Instanzen steuern. Aktivieren Sie dazu in Logstash einfach das Konfigurations-Management und registrieren Sie Logstash für die Nutzung der zentral verwalteten Pipeline-Konfigurationen.

    Informationen zum zentralisierten Logstash-Pipeline-Management
    screenshot-monitoring-logstash-feature-page.jpg

    Datenspeicher

    Datenspeicher

    Flexibilität

    Der Elastic Stack ist eine leistungsstarke Lösung, die sich für praktisch jeden Anwendungsfall eignet. Und obwohl er hauptsächlich für die erweiterten Suchfunktionen bekannt ist, eignet er sich dank des flexiblen Designs optimal für verschiedenste Anforderungen, inklusive Dokumentspeicherung, Zeitreihenanalysen und Metriken und geodatenbasierter Suche.

    Datentypen

    Elasticsearch unterstützt eine Vielzahl verschiedener Datentypen für die Felder in einem Dokument, und jeder dieser Datentypen hat wiederum mehrere Untertypen. Auf diese Weise können Sie Ihre Daten unabhängig von der Art der Daten möglichst effizient und effektiv speichern, analysieren und verwenden. Elasticsearch ist unter anderem für die folgenden Datentypen optimiert:

    Informationen zu Datentypen in Elasticsearch
    • Text

    • Formen

    • Zahlen

    • Vektoren

    • Histogramm

    • Zeitreihen (Datum/Uhrzeit)

    • Feldtyp „flattened“

    • Geopunkte/Geoformen

    • Unstrukturierte Daten (JSON)

    • Strukturierte Daten

    Volltextsuche (invertierter Index)

    Elasticsearch nutzt eine Datenstruktur namens invertierter Index, die extrem schnelle Volltextsuchen ermöglicht. Ein invertierter Index enthält eine Liste aller einzigartiger Wörter in beliebigen Dokumenten und für jedes Wort eine Liste der Dokumente, in denen es vorkommt. Um einen invertierten Index zu erstellen, teilen wir zunächst das Inhaltsfeld der einzelnen Dokumente in separate Wörter (auch Begriffe oder Tokens genannt) auf, erstellen eine sortierte Liste mit allen einzigartigen Begriffen und listen anschließend auf, in welchen Dokumenten die einzelnen Begriffe vorkommen.

    Informationen zu invertierten Indizes

    Dokumentenspeicher (unstrukturiert)

    Daten müssen nicht strukturiert sein, um von Elasticsearch ingestiert oder analysiert zu werden (allerdings kann die Leistung mit Strukturen verbessert werden). Dieses Design erleichtert den Einstieg und optimiert Elasticsearch als effektiven Dokumentenspeicher. Elasticsearch ist zwar keine NoSQL-Datenbank, bietet jedoch ähnliche Funktionen.

    Informationen zum dynamischen Mapping

    Zeitreihen/Analytics (Speicher im Spaltenformat)

    Mit einem invertierten Index können Sie Suchbegriffe mit Abfragen schnell nachschlagen, aber für Sortier- und Aggregationsvorgänge brauchen wir ein anderes Datenzugriffsmuster. Anstatt den Begriff nachzuschlagen, um Dokumente zu finden, wollen wir Dokumente nachschlagen und die Begriffe in einem bestimmten Feld finden. Dokumentwerte sind die auf dem Laufwerk enthaltenen Datenstrukturen in Elasticsearch. Sie werden beim Indexieren des Dokuments erstellt und ermöglichen daher dieses Datenzugriffsmuster, bei dem die Suche nach Spalten erfolgt. Daher liefert Elasticsearch hervorragende Ergebnisse bei Zeitreihen- und Metrikanalysen.

    Informationen zu Dokumentwerten

    Geoanalyse (BKD-Baumstruktur)

    Elasticsearch verwendet die BKD-Baumstruktur in Lucene, um Geodaten zu speichern. Auf diese Weise können sowohl Geopunkte (Höhen- und Breitengrad) als auch Geoformen (Rechtecke und Polygone) effizient analysiert werden.

    Datenspeicher

    Security

    Elasticsearch bietet zahlreiche Methoden, mit denen Sie dafür sorgen können, dass Ihre Daten nicht in den falschen Händen landen.

    Unterstützung für die Verschlüsselung inaktiver Daten

    Der Elastic Stack implementiert zwar keine Verschlüsselung für ruhende Daten, aber wir empfehlen trotzdem, eine Verschlüsselung auf Laufwerksebene für alle Hostcomputer zu konfigurieren. In den Snapshot-Zielen muss ebenfalls sichergestellt werden, dass die ruhenden Daten verschlüsselt werden.

    API für Sicherheit auf Feld- und Dokumentebene

    Mit der Sicherheit auf Feldebene können Sie einschränken, auf welche Felder die Nutzer:innen Lesezugriff haben. Insbesondere können Sie einschränken, welche Felder für dokumentbasierte Lese-APIs verfügbar sind.

    Informationen zur Sicherheit auf Feldebene

    Mit der Sicherheit auf Dokumentebene können Sie einschränken, auf welche Dokumente die Nutzer:innen Lesezugriff haben. Insbesondere können Sie einschränken, welche Dokumente für dokumentbasierte Lese-APIs verfügbar sind.

    Informationen zur Sicherheit auf Dokumentebene

    Datenspeicher

    Management

    Mit Elasticsearch können Sie Ihre Cluster und deren Knoten, Ihre Indizes und deren Shards sowie ganz besonders sämtliche enthaltenen Daten vollständig verwalten.

    Clusterbasierte Indizes

    Ein Cluster ist eine Sammlung von einem oder mehreren Knoten (Servern), die zusammen Ihre Daten enthalten und föderierte Indexierungs- und Suchfunktionen über alle Knoten bereitstellen. Diese Architektur erleichtert die horizontale Skalierung. Elasticsearch stellt eine umfangreiche und leistungsstarke REST-API und Benutzeroberflächen bereit, die Sie für die Verwaltung Ihrer Cluster verwenden können.

    Informationen zu clusterbasierten Indizes

    Datensnapshot und Wiederherstellung

    Ein Snapshot ist eine Sicherung aus einem aktiven Elasticsearch-Cluster. Snapshots können entweder für einzelne Indizes oder für ein gesamtes Cluster erstellt und in einem Repository in einem freigegebenen Dateisystem gespeichert werden. Außerdem sind Plugins verfügbar, mit denen Sie Remote-Repositorys unterstützen können.

    Informationen zu Snapshots und Wiederherstellung

    Source-only-Datensnapshots

    Mit einem Source-Only-Repository können Sie extrem kleine Source-Only-Snapshots erstellen, die bis zu 50 % weniger Platz auf dem Laufwerk belegen. Source-only-Snapshots enthalten gespeicherte Felder und Index-Metadaten. Sie enthalten keine Index- oder Dokumentwertstrukturen und sind nach dem Wiederherstellen nicht durchsuchbar.

    Informationen zu Source-only-Snapshots

    Rollup-Indizes

    Verlaufsdaten sind oft extrem hilfreich für die Analyse, werden allerdings oft nicht aufbewahrt, weil es kostspielig ist, riesige Datenmengen zu archivieren. Die Aufbewahrungsfristen werden daher eher aus finanziellen Gründen begrenzt als durch die Nützlichkeit umfassender Verlaufsdaten. Mit der Rollup-Funktion können Sie Verlaufsdaten zusammenfassen und speichern, um sie weiterhin für Analysen zu können, jedoch zu einem Bruchteil der Speicherungskosten für Rohdaten.

    Informationen zu Rollups
    screenshot-rollups-management-ui.jpg

    Suchen und Analysieren

    Suchen und Analysieren

    Volltextsuche

    Elasticsearch ist bekannt für die umfassenden Volltextsuchfunktionen und die Geschwindigkeit, die dabei an den Tag gelegt wird. Die Geschwindigkeit wird durch den invertierten Index ermöglicht, und die Leistungsfähigkeit ist das Ergebnis einer Kombination aus Relevanz-Scoring, einer hochentwickelten Abfrage-DSL und einer Vielzahl von Funktionen zum Ausbau der Suchfunktionen.

    Invertierter Index

    Elasticsearch nutzt eine Datenstruktur namens invertierter Index, die extrem schnelle Volltextsuchen ermöglicht. Ein invertierter Index enthält eine Liste aller einzigartiger Wörter in beliebigen Dokumenten und für jedes Wort eine Liste der Dokumente, in denen es vorkommt. Um einen invertierten Index zu erstellen, teilen wir zunächst das Inhaltsfeld der einzelnen Dokumente in separate Wörter (auch Begriffe oder Tokens genannt) auf, erstellen eine sortierte Liste mit allen einzigartigen Begriffen und listen anschließend auf, in welchen Dokumenten die einzelnen Begriffe vorkommen.

    Informationen zu invertierten Indizes

    Laufzeitfelder

    Ein Laufzeitfeld ist ein Feld, das zum Zeitpunkt der Abfrageausführung ausgewertet wird („Schema-on-read“). Laufzeitfelder können jederzeit eingeführt oder geändert werden, auch nachdem die Dokumente indexiert wurden, und sie können als Teil einer Abfrage definiert werden. Abfragen sehen diese Felder über dieselbe Schnittstelle wie sie indexierte Felder sehen. Das heißt, dass ein und dasselbe Feld in einigen Indizes eines Datenstreams ein Laufzeitfeld sein kann, während es in anderen Indizes desselben Datenstreams als indexiertes Feld auftritt. Es ist wichtig, dass Abfragen diesen Unterschied erkennen. Während indexierte Felder eine optimale Abfrage-Performance bieten, stellen Laufzeitfelder eine gute Ergänzung dar, weil sie eine Änderung der Datenstruktur ermöglichen, nachdem das Dokument indexiert wurde.

    Informationen zu Laufzeitfeldern

    Lookup-Laufzeitfeld

    Mit Lookup-Laufzeitfeldern können Sie Ergebnissen aus einem Primärindex Informationen aus einem Lookup-Index hinzufügen, indem Sie für beide Indizes einen Primärschlüssel definieren, der die Dokumente miteinander verknüpft. Diese Funktion, die wie Laufzeitfelder bei der Abfrageverarbeitung verwendet wird, ermöglicht eine flexible Datenanreicherung.

    Informationen zu Laufzeitfeldern

    Mit der Cluster-übergreifenden Suche (Cross-Cluster Search, CCS) kann jeder beliebige Knoten als föderierter Client über mehrere Cluster hinweg eingesetzt werden. Die Cluster-übergreifenden Knoten treten dem Remote-Cluster nicht bei, sondern stellen eine ressourcenschonende Verbindung her, um föderierte Suchanfragen auszuführen.

    Informationen zu CCS

    Relevanz-Scoring

    Eine Ähnlichkeit (Relevanz-Scoring/Ranking-Modell) definiert, wie übereinstimmende Dokumente bewertet werden. Elasticsearch verwendet standardmäßig die BM25-Ähnlichkeit, eine komplexe, TF/IDF-basierte Ähnlichkeit mit integrierter tf-Normalisierung, die sich optimal für kurze Felder wie etwa Namen eignet, bietet jedoch auch viele weitere Ähnlichkeitsoptionen an.

    Informationen zu Ähnlichkeitsmodellen

    Vektorsuche (ANN)

    Aufbauend auf der neuen Unterstützung für die approximative Nächster-Nachbar-Suche (ANN-Suche) in Lucene 9 auf der Basis des HNSW-Algorithmus ermöglicht der neue „_knn_search API“-Endpoint eine skalierbarere und leistungsfähigere Suche anhand der Vektorähnlichkeit. Zu diesem Zweck wird nach einem Kompromiss zwischen Trefferquote („Recall“) und Performance gesucht, was – im Vergleich mit der herkömmlichen kompromisslosen Vektorähnlichkeitsmethode – zu einer deutlich besseren Performance bei sehr großen Datenbeständen führt und die Trefferquote nur geringfügig reduziert.

    Weitere Informationen zur Vektorsuche

    Query DSL

    Für eine Volltextsuche benötigen Sie eine robuste Abfragesprache. Elasticsearch stellt eine komplette Abfrage-DSL (domain-specific language, domänenspezifische Sprache) auf JSON-Basis bereit, mit der Sie Abfragen definieren können. Erstellen Sie einfache Abfragen nach Begriffen und Sätzen, oder entwickeln Sie zusammengesetzte Abfragen mit einer Kombination aus mehreren Abfragen. Außerdem können Sie zur Abfragezeit Filter anwenden, um Dokumente zu entfernen, bevor diese eine Relevanzbewertung erhalten haben.

    Informationen zu Elasticsearch Query DSL

    Mit der API für die asynchrone Suche können Nutzer:innen Abfragen, deren Verarbeitung potenziell lange dauert, im Hintergrund ausführen lassen, den Fortschritt der Abfragenverarbeitung verfolgen und Teilergebnisse abrufen, sobald diese zur Verfügung stehen.

    Informationen zur asynchronen Suche

    Highlighter

    Mit Highlightern können Sie hervorgehobene Snippets aus einem oder mehreren Feldern in Ihren Suchergebnissen abrufen, um den Nutzer:innen die Übereinstimmungen mit der Abfrage zu zeigen. Wenn Sie Hervorhebungen anfordern, enthält die Antwort ein zusätzliches Highlight-Element für jeden Suchtreffer, der die hervorgehobenen Felder und Fragmente enthält.

    Informationen zu Highlightern

    Type-Ahead (Autovervollständigung)

    Der Vervollständigungs-Suggester stellt Autovervollständigungs- und Sucheingabefunktionen bereit. Diese Navigationsfunktion führt Nutzer:innen noch während der Suche zu relevanten Ergebnissen und verbessert die Suchgenauigkeit.

    Informationen zu Type-Ahead

    Rechtschreibkorrektur

    Die Rechtschreibkorrektur basiert auf dem Begriffs-Suggester, der Begriffe anhand der Änderungsdistanz vorschlägt. Der empfohlene Text wird analysiert, bevor die Begriffe vorgeschlagen werden. Die vorgeschlagenen Begriffe werden pro analysiertem Vorschlags-Text-Token geliefert.

    Informationen zur Rechtschreibkorrektur

    Suggester („meinten Sie“)

    Mit den Satz-Suggestern fügen Sie Ihrer Suche eine „meinten-Sie“-Funktion hinzu, indem Sie die Begriffs-Suggester um zusätzliche Logik erweitern, um auf Basis von ngram-Sprachmodellen ganze korrigierte Sätze anstelle einzelner gewichteter Tokens auszuwählen. In der Praxis trifft dieser Suggester bessere Entscheidungen für die auszuwählenden Token auf Basis von Kookkurrenz und Häufigkeiten.

    Informationen zu Suggestern

    Percolators

    Percolators stellen das herkömmliche Suchmodell, bei dem Dokumente in einem Index mit einer Abfrage gesucht werden, auf den Kopf, und gleichen stattdessen Dokumente mit Abfragen aus einem Index ab. Die eigentliche percolate-Abfrage enthält das Dokument, das als Suche verwendet und mit den gespeicherten Abfragen abgeglichen werden soll.

    Informationen zu Percolators

    Query Profiler/Optimizer

    Die Profile API liefert ausführliche Timinginformationen zur Ausführung einzelner Komponenten in einer Suchabfrage. Sie erhalten Einblicke in die Ausführung von Suchabfragen auf einer niedrigen Ebene, können Gründe für langsame Abfragen ermitteln und Schritte zu deren Verbesserung ergreifen.

    Informationen zur Profile API

    Berechtigungsbasierte Suchergebnisse

    Mit der Sicherheit auf Feldebene und auf Dokumentebene können Sie die Suchergebnisse an den Lesezugriff der Nutzer:innen anpassen. Insbesondere können Sie einschränken, welche Felder und Dokumente für dokumentbasierte Lese-APIs verfügbar sind.

    Automatisches Abbrechen von Abfragen

    Das automatische Abbrechen von Abfragen ist ein hilfreiches Kibana-Feature, das die Nutzung von Clustern vereinfacht, weil es unnötige Verarbeitungsschritte eliminiert. Elasticsearch-Anforderungen werden automatisch abgebrochen, sobald Nutzer:innen ihre Abfrage ändern/aktualisieren oder die Browserseite aktualisieren.

    Suchen und Analysieren

    Analytics

    Die Datensuche ist nur der Anfang. Mit den leistungsstarken Analysefunktionen des Elastic Stack können Sie einen tieferen Sinn in den Daten finden, nach denen Sie gesucht haben. Ob Sie dies durch das Aggregieren von Ergebnissen, das Aufspüren von Beziehungen zwischen Dokumenten oder das Einrichten von Alerts bei bestimmten Schwellenwerten erreichen – das Fundament ist in jedem Fall eine besonders leistungsfähige Suchfunktionalität.

    Aggregationen

    Mit dem Aggregationen-Framework können Sie aggregierte Daten auf Basis einer Suchabfrage bereitstellen. Dieses Framework verwendet einfache Bausteine, die sogenannten Aggregationen, mit denen Sie komplexe Zusammenfassungen der Daten erstellen können. Eine Aggregation ist eine Arbeitseinheit, die Analysedaten über eine Reihe von Dokumenten generiert.

    Informationen zu Aggregationen
    • Metrik-Aggregationen

    • Bucket-Aggregationen

    • Pipeline-Aggregationen

    • Matrix-Aggregationen

    • Geodaten-Hexraster-Aggregationen („geohex_grid“)

    • Aggregation für zufallsbasiertes Sampling („random_sampler“)

    Graphexploration

    Mit der Graphexplorations-API können Sie Informationen über die Dokumente und Begriffe in Ihrem Elasticsearch-Index extrahieren und zusammenfassen. Machen Sie sich mit dieser API vertraut, indem Sie Graph in Kibana einsetzen, um Verbindungen zu erkunden.

    Informationen zur Graphexplorations-API
    screenshot-kibana-graph-feature-page.jpg

    Schwellenwertbasiertes Alerting

    Durch die Einrichtung schwellenwertbasierter Alerts können Sie regelmäßig überprüfen, ob die Daten in Ihren Elasticsearch-Indizes innerhalb eines vorgegebenen Zeitintervalls bestimmte Schwellenwerte über- oder unterschreiten. Unsere Alerting-Features bieten Ihnen die ganze Leistungsfähigkeit der Elasticsearch-Abfragesprache, damit Sie relevante Veränderungen in Ihren Daten identifizieren können.

    Informationen zum schwellenwertbasierten Alerting
    screenshot-alerting-threshold-alert.png

    Suchen und Analysieren

    Machine Learning

    Mit Elastic Machine Learning können Sie das Verhalten Ihrer Elasticsearch-Daten – Trends, Regelmäßigkeit und mehr – automatisch in Echtzeit modellieren und Probleme schneller erfassen, die Ursachenanalysen vereinfachen und Falschmeldungen verringern.

    Inferenz

    Mit Inferenz können Sie beaufsichtigte Machine-Learning-Prozesse, wie Regression oder Klassifizierung, nicht nur zur Analyse einzelner Batches, sondern kontinuierlich benutzen. Inferenz ermöglicht es, trainierte Machine-Learning-Modelle auf eingehende Daten anzuwenden.

    Informationen zu Inferenz

    Spracherkennung

    Spracherkennung ist ein trainiertes Modell, das zur Erkennung der in einem Text verwendeten Sprache verwendet werden kann. Sie können das Spracherkennungsmodell in einem Inferenz-Prozessor referenzieren.

    Informationen zur Spracherkennung

    Prognosen zu Zeitreihen

    Nachdem Elastic Machine Learning Baselines für das normale Verhalten Ihrer Daten erstellt hat, können Sie mit diesen Daten Prognosen für das zukünftige Verhalten generieren. Erstellen Sie anschließend eine Prognose für einen Zeitreihenwert zu einem bestimmten Zeitpunkt in der Zukunft oder schätzen Sie die Wahrscheinlichkeit für einen bestimmten Zeitreihenwert in der Zukunft ab.

    Informationen zu Prognosen
    screenshot-machine-learning-feature-page.jpg

    Anomalieerkennung in Zeitreihen

    Mit den Elastic Machine-Learning-Funktionen können Sie die Analyse von Zeitreihendaten automatisieren, indem Sie exakte Baselines für das normale Verhalten in den Daten generieren und anschließend abnormale Muster identifizieren. Anomalien werden mithilfe von proprietären Machine-Learning-Algorithmen erkannt, klassifiziert und mit statistisch signifikanten Einflüssen in den Daten verknüpft.

    Informationen zur Anomalieerkennung
    • Anomalien im Zusammenhang mit zeitlichen Abweichungen von Werten, Anzahlen oder Häufigkeiten

    • Statistische Seltenheit

    • Ungewöhnliches Verhalten für ein Mitglied einer Population

    Alerting bei Anomalien

    Für Veränderungen, die mit Regeln und Grenzwerten schwerer zu definieren sind, können Sie Benachrichtigungen mit unbeaufsichtigten Machine-Learning-Features kombinieren, um ungewöhnliche Verhaltensweisen aufzudecken. Lassen Sie sich dann anhand der Anomaliebewertungen im Alerting-Framework, benachrichtigen, wenn Probleme auftreten.

    Informationen zum Alerting

    Populations-/Entitätsanalyse

    Mit den Elastic Machine-Learning-Funktionen können Sie ein Profil mit den Aktionen erstellen, die eine typische Nutzerin oder ein typischer Nutzer, ein Computer oder eine andere Entität über einen bestimmten Zeitraum ausführt, und anschließend Ausreißer identifizieren, die sich gegenüber der restlichen Population abnormal verhalten.

    Informationen zur Populations-/Entitätsanalyse
    screenshot-kibana-machine-learning-feature-page.jpg

    Kategorisierung von Lognachrichten

    Lognachrichten von Anwendungen sind oft unstrukturiert und enthalten variable Daten. Die Elastic Machine-Learning-Funktionen beobachten die statischen Teile der Nachricht, gruppieren ähnliche Nachrichten in Cluster und klassifizieren sie in Nachrichtenkategorien.

    Informationen zur Kategorisierung von Lognachrichten

    Anzeige der Ursache

    Sobald eine Anomalie erkannt wurde, können die Elastic-Machine-Learning-Funktionen problemlos die Eigenschaften aufspüren, die diese wesentlich beeinflusst haben. Gibt es beispielsweise einen ungewöhnlichen Rückgang bei der Zahl der Transaktionen, lässt sich so schnell herausfinden, welcher Server ausgefallen ist oder welcher Switch neu konfiguriert werden muss.

    Informationen zur Anzeige der Ursache
    screenshot-machine-learning-root-cause-feature-page.jpg

    Data Visualizer

    Mit dem Data Visualizer können Sie Ihre Elasticsearch-Daten besser kennenlernen und mögliche Felder für die Machine Learning-Analyse identifizieren, indem Sie die Metriken und Felder in einer Log-Datei oder einem vorhandenen Index analysieren.

    Informationen zum Data Visualizer
    screenshot-machine-learning-visualizer-feature-page.jpg

    „Anomaly Explorer“ für Jobs mit mehreren Metriken

    Erstellen Sie komplexe Machine-Learning-Jobs mit mehreren Detectors. Mit dem Anomaly Explorer können Sie sich die Ergebnisse ansehen, nachdem ein mehrere Metriken umfassender Job den Stream der Eingangsdaten analysiert, dessen Verhalten modelliert und auf Basis der beiden im Job definierten Detectors eine Analyse durchgeführt hat.

    Informationen zur Analyse von Aufträgen mit mehreren Metriken
    screenshot-ml-multi-job-anomaly-explorer-feature-page.jpg

    Ausreißererkennungs-API

    Bei der nicht überwachten Ausreißererkennung kommen vier verschiedene distanz- und dichtebasierte Machine-Learning-Verfahren zum Einsatz, die dabei helfen herauszufinden, welche Datenpunkte im Vergleich zur Mehrheit als unüblich einzustufen sind. Zum Erstellen von Data-Frame-Analytics-Jobs für die Ausreißererkennung steht den Nutzer:innen eine eigens zu diesem Zweck geschaffene API zur Verfügung.

    Informationen zur Ausreißererkennungs-API

    Modell-Snapshot-Verwaltung

    Bei ungeplanten Systemausfällen oder anderen Ereignissen, die die Ergebnisse der Anomalieerkennung verfälschen können, ermöglichen Modell-Snapshots eine schnelle Wiederherstellung des gewünschten Modellzustands.

    Informationen zu Modell-Snapshots

    Suchen und Analysieren

    Elastic APM

    Sie nutzen Elasticsearch bereits für Log-Daten und Systemmetriken? Mit Elastic APM können Sie auch Anwendungsmetriken in Elasticsearch speichern. Mit nur vier Zeilen Code erhalten Sie einen besseren Überblick und können so Fehler im zu veröffentlichenden Code schnell beheben.

    APM-Server

    Der APM-Server empfängt Daten von APM-Agents und transformiert sie zu Elasticsearch-Dokumenten. Dazu wird ein HTTP-Serverendpunkt bereitgestellt, an den die Agents die gesammelten APM-Daten streamen. Nachdem der APM-Server die Ereignisse von den APM-Agents validiert und verarbeitet hat, transformiert er die Daten in Elasticsearch-Dokumente und speichert sie in den entsprechenden Elasticsearch-Indizes.

    Informationen zum APM-Server

    APM-Agents

    APM-Agents sind Open-Source-Bibliotheken, die in derselben Sprache wie Ihr Dienst geschrieben wurden. Diese Bibliotheken werden wie jede andere Bibliothek in Ihrem Dienst installiert. Sie instrumentieren Ihren Code und sammeln Leistungsdaten und Fehler zur Laufzeit. Diese Daten werden für kurze Zeit zwischengespeichert und anschließend an den APM-Server gesendet.

    Informationen zu APM-Agents

    APM-App

    Um Blockaden im Code finden und reparieren zu können, brauchen Sie eine gute Suchfunktion. Über unsere dedizierte Benutzeroberfläche können Sie Engpässe identifizieren und sich auf schwierige Änderungen auf Code-Ebene konzentrieren. Das Ergebnis: besserer, effizienterer Code für schnelleres Entwickeln, Testen und Implementieren, schnellere Anwendungen und ein besseres Nutzungserlebnis auf Kundenseite.

    Weitere Informationen zu Elastic APM
    screenshot-apm-ui.jpg

    Verteiltes Tracing

    Möchten Sie gern mehr darüber erfahren, welche Wege Anfragen in Ihrer Infrastruktur nehmen? Mit dem verteilten Tracing können Sie Transaktionen verketten und herausfinden, wie Transaktionen zusammenhängen und wie Ihre Dienste miteinander interagieren. Verschaffen Sie sich einen Überblick darüber, an welchen Stellen es stockt, und ermitteln Sie Komponenten mit Optimierungspotenzial.

    Informationen zum verteilten Tracing
    screenshot-apm-distributed-tracing-feature-page.jpg

    Alerting-Integration

    Lassen Sie sich jederzeit über Ihre Code-Performance informieren. Wenn etwas schiefläuft, erhalten Sie eine E-Mail-Benachrichtigung, und wenn etwas außerordentlich gut läuft, gibt es eine Benachrichtigung bei Slack.

    Informationen zum Alerting
    screenshot-alerting-apm.png

    Service Maps

    Service Maps zeigen visuell, wie Ihre Dienste verbunden sind, und bieten allgemeine Transaktionsmetriken, wie die durchschnittliche Transaktionsdauer, Anfrage- und Fehlerraten sowie Informationen zu CPU- und Speichernutzung.

    Informationen zu Service Maps

    Machine-Learning-Integration

    Sie können Machine-Learning-Aufträge direkt in der APM-App erstellen. Anschließend können Sie Ihre Daten mit Machine-Learning-Features automatisch modellieren und abnormale Verhaltensweisen aufspüren.

    Informationen zur ML-Integration in APM
    screenshot-machine-learning-apm-helper-feature-page.jpg

    Erkunden und visualisieren

    Erkunden und visualisieren

    Visualisierungen

    Erstellen Sie Visualisierungen für die Daten in Ihren Elasticsearch-Indizes. Kibana-Visualisierungen basieren auf Elasticsearch-Abfragen. Verwenden Sie eine Reihe von Elasticsearch-Aggregationen, um Ihre Daten zu extrahieren und zu verarbeiten, und erstellen Sie Diagramme, in denen wichtige Trends, Spitzen und Gefälle hervorgehoben werden.

    Dashboards

    Kibana-Dashboards zeigen eine Sammlung an Visualisierungen und Suchen an. Sie können die Dashboard-Inhalte frei anordnen, bearbeiten und vergrößern oder verkleinern sowie das Dashboard speichern und mit anderen teilen. Sie haben die Möglichkeit, individuelle Drilldowns zwischen mehreren Dashboards oder zu Webanwendungen zu erstellen, um Maßnahmen festzulegen und die Entscheidungsfindung zu fördern.

    Informationen zu Dashboards in Kibana
    screenshot-dashboard-log-web-traffic-79.png

    Canvas

    Canvas ist eine völlig neue Art, um Ihre Daten spektakulär darzustellen. Canvas kombiniert Daten mit Farben, Formen, Text und Ihrer eigenen Fantasie, um dynamische, mehrseitige, pixelperfekte Datenanzeigen für große und kleine Bildschirme zu erstellen.

    Informationen zu Canvas
    screenshot-canvas-demos-v2-1000x562-feature-page.jpg

    User Experience

    Die von der App User Experience bereitgestellten Daten vermitteln Ihnen ein Bild davon, wie die Nutzer:innen Ihre Webanwendung erleben. So können Sie die nutzerseitig wahrgenommene Performance Ihrer Webanwendung quantifizieren und analysieren.

    Weitere Informationen zur App User Experience
    user-experience-tab.png

    Kibana Lens

    Kibana Lens ist eine intuitive Benutzeroberfläche, die den Prozess der Datenvisualisierung durch einfaches Drag-and-Drop vereinfacht. Es spielt keine Rolle, ob Sie Milliarden von Logdaten durchforschen oder Trends in Ihrem Website-Traffic ausfindig machen möchten – mit Lens braucht es nur ein paar Klicks, um aus Daten wertvolle Erkenntnisse zu gewinnen. Dabei sind keinerlei Kibana-Vorkenntnisse erforderlich.

    Informationen zu Kibana Lens
    screenshot-lens-switch-chart-index-landing-page.png

    Time Series Visual Builder

    Der Time Series Visual Builder (TSVB) nutzt den vollen Leistungsumfang des Elasticsearch-Aggregationsframeworks und kombiniert eine beliebige Anzahl an Aggregationen und Pipeline-Aggregationen, um komplexe Daten bedeutungsvoll darzustellen.

    Weitere Infos zu TSVB
    screenshot-kibana-timeseries-feature-page.jpg

    Graph-Analytics

    Mit der Graph-Analytics-Funktion können Sie herausfinden, in welcher Beziehung die Elemente in einem Elasticsearch-Index zueinander stehen. Erkunden Sie die Verbindungen zwischen indexierten Begriffen und finden Sie heraus, welche Verbindungen besonders wichtig sind. Diese Funktion ist hilfreich für eine Vielzahl von Anwendungen, von der Betrugserkennung bis hin zu Empfehlungs-Engines.

    Informationen zu Graph-Analytics
    screenshot-kibana-graph-feature-page.jpg

    Raumbezogene Analyse

    Viele Nutzer:innen des Elastic Stack suchen häufig nach dem „Wo“ von Ereignissen. Ob Sie Ihr Netzwerk vor Angriffen schützen, langsame Reaktionszeiten von Anwendungen an bestimmten Orten untersuchen oder einfach nur jemanden suchen, der Sie nach Hause bringt: Geodaten – und die Suche – spielen eine wichtige Rolle.

    Informationen zu raumbezogenen Analysen und Karten
    screenshot-maps-geospatial-search-feature-page.jpg

    Container-Monitoring

    Wie Ihre Anwendungen und Ihre Umgebung entwickelt sich auch der Elastic Stack immer weiter. In Elastic können Sie von einem zentralen Ort aus Ihre Daten überwachen, sie durchsuchen und visualisieren, was in Ihren Anwendungen, in Docker und in Kubernetes geschieht.

    Informationen zum Container-Monitoring
    screenshot-infrastructure-ui.png

    Kibana-Plugins

    Erweitern Sie den Funktionsumfang von Kibana mit von der Community beigesteuerten Plugin-Modulen. Open-Source-Plugins sind für eine Vielzahl von Apps, Erweiterungen, Visualisierungen und mehr verfügbar. Beispiele für Plugins:

    Entdecken Sie die verfügbaren Kibana-Plugins
    • Vega-Visualisierungen

    • Prometheus-Exporter

    • 3D-Diagramme und -Grafiken

    • Kalendervisualisierungen

    • Und vieles mehr

    Datenimport-Tutorial

    In unserem einfach zu begleitenden Tutorial lernen Sie, einen Datensatz in Elasticsearch zu laden, ein Indexmuster zu definieren, die Daten zu entdecken und zu erkunden,Visualisierungen und Dashboards zu erstellen und vieles mehr.

    Informationen zum Datenimport-Tutorial
    screenshot-kibana-homepage-feature-page.jpg

    Kibana-Laufzeitfelder-Editor

    Der Kibana-Laufzeitfelder-Editor nutzt die Laufzeitfelder-Funktion in Elasticsearch, um Analyst:innen zu ermöglichen, ad hoc eigene benutzerdefinierte Felder hinzuzufügen. Mit diesem Editor, der in Indexmustern, Discover und Kibana Lens zur Verfügung steht, lassen sich Laufzeitfelder erstellen, bearbeiten und entfernen.

    Weitere Informationen zum Kibana-Laufzeitfelder-Editor

    Erkunden und visualisieren

    Teilen und zusammenarbeiten

    Teilen Sie Ihre Kibana-Visualisierungen ganz einfach mit anderen im Team, Ihrem Chef, dessen Chef, Ihren Kunden, Compliance-Beauftragten oder Auftragnehmern – kurz gesagt, mit jedem, mit dem Sie sie teilen möchten. Betten Sie ein Dashboard ein, teilen Sie einen Link oder exportieren Sie Ihre Daten als PDF-, PNG- oder CSV-Dateien und verschicken Sie sie als Anhang. Oder organisieren Sie Ihre Dashboards und Visualisierungen in Kibana-Spaces.

    Einbettbare Dashboards

    In Kibana können Sie mühelos einen direkten Link zu einem Kibana-Dashboard teilen oder das Dashboard als Iframe in einer Webseite einbetten, entweder als Live-Dashboard oder als statischer Snapshot des jeweils aktuellen Zustands.

    Informationen zum Einbetten und Teilen von Dashboards

    Dashboard-Only-Modus

    Mit der integrierten Rolle „kibana_dashboard_only_user“ können Sie einschränken, was den Nutzer:innen nach der Anmeldung bei Kibana angezeigt wird. Die Rolle „kibana_dashboard_only_user“ ist vorkonfiguriert mit schreibgeschützten Berechtigungen für Kibana. Die Nutzer:innen können Dashboards mit uneingeschränkten Visualisierungsfunktionen öffnen. Sämtliche Bedienelemente zum Bearbeiten und Erstellen sind ausgeblendet.

    Informationen zum Dashboard-Only-Modus

    Spaces

    Mit Spaces in Kibana können Sie Ihre Dashboards und andere gespeicherte Objekte in aussagekräftige Kategorien organisieren. Sobald Sie sich in einem bestimmten Space befinden, werden nur noch die Dashboards und andere gespeicherte Objekte angezeigt, die zu diesem Space gehören. Und mit den Sicherheitsfunktionen können Sie als zusätzliche Sicherheitsebene festlegen, welche Nutzer:innen Zugriff auf bestimmte Spaces erhalten.

    Informationen zu Spaces
    screenshot-kibana-space-selector-feature-page.jpg

    Individuelle Banner für Kibana-Spaces

    Individuelle Banner helfen bei der Abtrennung von Kibana-Spaces für unterschiedliche Rollen, Teams, Funktionen und mehr. Sie können Bekanntmachungen und Nachrichten auf spezifische Kibana-Spaces zuschneiden und Nutzer:innen dabei helfen, schnell herauszufinden, in welchem Space sie sich gerade befinden.

    Weitere Informationen zu individuellen Bannern für Kibana-Spaces

    CSV-Exporte

    In Discover können Sie gespeicherte Suchen in CSV-Dateien exportieren, um sie anschließend in externen Texteditoren zu verarbeiten.

    Informationen zum Exportieren gespeicherter Suchen
    screenshot-reporting-csv-feature-page.jpg

    Tags

    Die Möglichkeit, Tags einfach zu erstellen und sie Dashboards und Visualisierungen hinzuzufügen, macht die Verwaltung von Inhalten effizienter.

    screenshot-kibana-tags-7-11-b.png

    PDF- und PNG-Berichte

    Erstellen Sie schnell und einfach Berichte zu beliebigen Kibana Visualisierungen und -Dashboards und speichern Sie sie als PDF oder PNG. Sie können Berichte ad hoc herunterladen, zu bestimmten Zeiten automatisch erstellen lassen bei Vorliegen bestimmter Bedingungen generieren lassen und automatisch mit anderen Nutzer:innen teilen.

    Informationen zu Berichten
    screenshot-reporting-generate-pdf-feature-page.jpg

    Erkunden und visualisieren

    Elastic Maps

    Mit der Maps-App können Sie Ihre geografischen Daten in großem Umfang schnell und in Echtzeit verarbeiten. Fügen Sie mehrere Ebenen und Indizes zu einer Karte hinzu, drucken Sie Rohdokumente, wenden Sie Stilvorlagen im Client an und suchen Sie global in mehreren Ebenen, um Ihre Daten mühelos zu verstehen und zu überwachen.

    Kartenebenen

    Mit der Maps-App in Kibana können Sie Ebenen für einzelne Indizes zu Landkarten hinzufügen. Und mit mehreren Ebenen über ein und derselben Karte können Sie alle Ebenen auf einmal in Echtzeit durchsuchen und filtern. Nutzen Sie Chloropethenebenen, Wärmekartenebenen, Kachelebenen, Vektorebenen und sogar Ebenen für bestimmte Anwendungsfälle wie etwa Observability für APM-Daten.

    Weitere Informationen zu Kartenebenen
    screenshot-maps-multiple-sources-cool-feature-page.jpg

    Vektorkacheln

    Mit Vektorkacheln können Sie Ihre Karte in Kacheln aufteilen und so besser als bei den Alternativen schnell in den Kacheln navigieren und ruckelfrei zoomen. Bei allen neuen Polygonebenen ist die Einstellung „Use vector tiles“ (Vektorkacheln verwenden) standardmäßig aktiviert. Wenn Sie die 10.000-Datensätze-Methode vorziehen, können Sie die Skalierungsoptionen in den Ebeneneinstellungen anpassen.

    Informationen zu Vektorkacheln in Elastic Maps
    screenshot_elastic_maps_vector_tiles.jpg

    Individuelle Regionskarten

    Regionskarten sind thematische Karten, in denen die umgrenzte Vektorformen mit einem Farbverlauf eingefärbt werden, und mit denen Sie benutzerdefinierte Positionsdaten mit einem Schema Ihrer Wahl darstellen können.

    Informationen zu Regionskarten
    screenshot-maps-location-intelligence-feature-page.jpg

    Elastic Maps-Service (Zoomstufen)

    Der Elastic Maps-Service ist die Basis für alle Geodaten-Visualisierungen in Kibana (inklusive der Maps-App) und stellt Grundkarten-Kacheln, Shapefiles und andere wichtige Funktionen für die Darstellung von Geodaten bereit. Mit der Kibana-Standarddistribution können Sie auf einer Karte bis zu 18-mal hereinzoomen.

    Informationen zum Elastic Maps-Service
    screenshot-elastic-maps-service-zoom-still-feature-page.jpg

    Elastic Maps Server

    Der Elastic Maps Server ermöglicht die Verwendung der Elastic Maps Service-Grundkarten und ‑Grenzen auf der lokalen Infrastruktur.

    Weitere Informationen zum Elastic Maps Server

    GeoJSON-Upload

    Die GeoJSON-Upload-Funktion ist trotz aller Einfachheit und Nutzerfreundlichkeit äußerst robust. Durch direktes Ingestieren in Elasticsearch versetzt das Feature Kartenersteller in die Lage, GeoJSON-Dateien, die mit Punkten, Formen und Inhalten angereichert wurden, per Drag-and-Drop in Karten zu ziehen und so Daten schnell und einfach zu visualisieren. Mithilfe von mit GeoJSON definierten Grenzen können Sie E‑Mail- oder Webanwendungs-Alerts für die Verfolgung datengesteuerter Objektbewegungen einrichten.

    Informationen zur GeoJSON-Upload-Funktion
    screenshot-geojson-import-feature-page.jpg

    Geo-Alerts

    Sie können festlegen, dass Sie benachrichtigt werden, sobald etwas eine geografische Grenze überschreitet – gleich, ob von außen nach innen oder umgekehrt. Und Sie können die aktuelle Position eines Objekts innerhalb einer festgelegten Grenze überwachen.

    Informationen zum Geo-Alerting

    Funktion zum Upload von Shapefiles

    Die Maps-Anwendung enthält eine integrierte Funktion für das Hochladen von Shapefiles, die so einfach wie leistungsfähig ist. Laden Sie einfach und schnell lokale offene Daten und Grenzen, um sie analysieren und vergleichen zu können.

    Informationen zum Upload von Shapefiles

      Erkunden und visualisieren

      Elastic Logs

      Mit integrierter Unterstützung für verbreitete Datenquellen und Standard-Dashboards bietet der Elastic Stack ein Rundum-Sorglos-Paket. Senden Sie Log-Daten mit Filebeat und Winlogbeat, indexieren Sie sie in Elasticsearch und visualisieren Sie alles in Minutenschnelle in Kibana.

      Log-Shipper (Filebeat)

      Filebeat hilft Ihnen dabei, Einfaches einfach zu halten, indem es Ihre Logs und Dateien unkompliziert und schnell weiterleitet und zentralisiert. Filebeat enthält integrierte Module (aktuell unter anderem für auditd, Apache, NGINX, System und MySQL), die das Sammeln, Parsen und Visualisieren von Daten aus verbreiteten Log-Formaten so weit vereinfachen, dass diese Schritte mit einem einzigen Befehl gestartet werden können.

      Informationen zu Filebeat

      Logdaten-Dashboards

      Mit den Filebeat-Beispiel-Dashboards können Sie Ihre Logdaten in Kibana mühelos erkunden. Verwenden Sie diese vorkonfigurierten Dashboards als Ausgangspunkt und passen Sie sie an Ihre eigenen Anforderungen an.

      Informationen zu Logdaten-Dashboards
      screenshot-container-monitoring-screenshot-carousel-application-feature-page.jpg

      Erkennung von Logratenanomalien

      Die Machine-Learning-gestützte Logratenanalyse weist auf Zeiträume hin, in denen die Lograte außerhalb des Üblichen liegt, sodass Sie Loganomalien schnell identifizieren und untersuchen können.

      Informationen zu Logratenanomalien

      Logs-App

      Mit der Logs-App können Sie Logdaten in Echtzeit in einer kompakten und individuell anpassbaren Anzeige überwachen. Die Logdaten werden mit den Metriken in der Metrics-App in Beziehung gesetzt, sodass sich Probleme leichter diagnostizieren lassen.

      Informationen zur Logs-App
      screenshot-logs-ui-feature-page.jpg

      Erkunden und visualisieren

      Elastic Metrics

      Mit Elastic Metrics können Sie wichtige Metriken, wie CPU-Auslastung, Systemlast, Speicherverbrauch und Netzwerkverkehr, problemlos überwachen, um sich einen Überblick über die allgemeine Integrität Ihrer Server, Container und Dienste zu verschaffen.

      Metriken-Shipper (Metricbeat)

      Metricbeat ist ein leichtgewichtiger Shipper, den Sie auf Ihren Servern installieren können, um regelmäßig Metriken für das Betriebssystem und die auf dem Server ausgeführten Dienste zu erfassen. CPU, Speicher, Redis oder NGINX: Metricbeat ist ein leichtgewichtiger Shipper, der System- und Dienststatistiken an das gewünschte Ziel sendet.

      Informationen zu Metricbeat

      Metriken-Dashboards

      Wir stellen Beispiele für Metricbeat-Dashboards bereit, die Ihnen dabei helfen, sich schnell mit der Überwachung von Servern in Kibana vertraut zu machen. Verwenden Sie diese vorkonfigurierten Dashboards als Ausgangspunkt und passen Sie sie an Ihre eigenen Anforderungen an.

      Informationen zu Metriken-Dashboards
      screenshot-metricbeat-modules-system-feature-page.jpg

      Alerting-Integration für Metrics

      Richten Sie in der Metrics-App in Kibana Schwellenwert-Alerts für Ihre Metriken mit Echtzeit-Feedback ein und legen Sie fest, wie Sie benachrichtigt werden möchten – Dokumente, Logs, Slack, einfache Webhooks und mehr.

      Informationen zum Alerting

      Machine-Learning-Integration für Elastic Metrics

      Elastic Metrics ermöglicht dank 1‑Klick-Anomalieerkennung das schnelle Aufspüren häufiger Infrastrukturprobleme.

      Informationen zum Machine Learning

      Metrics-App

      Nachdem Sie Metriken nach Elasticsearch gestreamt haben, können Sie die Metrics-App in Kibana verwenden, um die Metriken in Echtzeit zu überwachen und Probleme zu identifizieren.

      Informationen zur Metrics-App
      screenshot-infrastructure-ui.png

      Erkunden und visualisieren

      Elastic Uptime

      Elastic Uptime basiert auf der Open-Source-Lösung Heartbeat und verarbeitet Ihre Verfügbarkeitsdaten zusammen mit Kontextinformationen aus Log-Daten, Metriken und APM-Daten. Auf diese Weise können Sie Punkte leichter verbinden, Aktivitäten korrelieren und Probleme schneller lösen.

      Uptime-Monitor (Heartbeat)

      Heartbeat ist ein leichtgewichtiger Daemon, den Sie auf einem Remoteserver installieren können, um den Status und die Verfügbarkeit Ihrer Dienste regelmäßig zu überprüfen. Heartbeat ingestiert die Serverdaten und zeigt sie anschließend im Uptime-Dashboard und in der App in Kibana an.

      Informationen zu Heartbeat

      Uptime-Dashboards

      Mit den Heartbeat-Beispieldashboards können Sie den Status Ihrer Dienste mühelos in Kibana visualisieren. Verwenden Sie diese vorkonfigurierten Dashboards als Ausgangspunkt und passen Sie sie an Ihre eigenen Anforderungen an.

      Informationen zu Uptime-Dashboards
      screenshot-uptime-host-availability.png

      Alerting-Integration für Uptime

      Richten Sie direkt in der Uptime-App schwellenwertbasierte Alerts für Ihre Verfügbarkeitsdaten ein und legen Sie fest, wie Sie benachrichtigt werden möchten – Dokumente, Logs, Slack, einfache Webhooks und mehr.

      Zertifikatüberwachung

      Prüfen Sie, wann Ihre SSL- oder TLS-Zertifikate ablaufen, oder lassen Sie sich entsprechend benachrichtigen und sorgen Sie so dafür, dass Ihre Dienste verfügbar bleiben – alles direkt in der Uptime-App.

      Synthetisches Monitoring

      Sie haben die Möglichkeit, die User Experience über die verschiedenen Schritte einer User Journey zu simulieren und so zum Beispiel nachzuvollziehen, wie Nutzer:innen eines Online-Shops den Bezahlvorgang erleben. Die Erfassung detaillierter Statusinformationen für jeden Schritt in diesem Prozess hilft Ihnen, Problembereiche zu identifizieren und so ein außergewöhnliches digitales Nutzungserlebnis zu bieten.

      Informationen zu synthetischen Tests

      Uptime-App

      Mit der Uptime-App in Kibana können Sie Ausfälle und andere Verbindungsprobleme in Ihrem Netzwerk oder Ihrer Umgebung schnell identifizieren und diagnostizieren. Überwachen Sie Hosts, Dienste, Websites, APIs und mehr mit dieser hilfreichen Benutzeroberfläche.

      Informationen zur Uptime-App
      screenshot-uptime-service-monitoring.png

      Erkunden und visualisieren

      Elastic Security

      Elastic Security versetzt Security-Teams in die Lage, Bedrohungen zu vermeiden, zu erkennen und zu bekämpfen. Mit intuitiven Workflows, integriertem Case Management und Integrationen für SOAR- und Ticketing-Plattformen können Sie Ransomware- und Malware-Angriffe auf Hosts stoppen, die Erkennung von Bedrohungen und Anomalien automatisieren und die Bekämpfung von Bedrohungen optimieren.

      Elastic Common Schema (ECS)

      Mit dem Elastic Common Schema (ECS) lassen sich Daten aus verschiedenen Quellen in einer einheitlichen Form analysieren. So können Sie Erkennungsregeln, Machine-Learning-Jobs, Dashboards und andere Security-Inhalte breiter verwenden, Suchen enger eingrenzen und sich die Namen von Feldern einfacher merken.

      Video zum Elastic Common Schema ansehen
      screenshot-security-host-events-monitoring-7-14.jpg

      Security-Analyse für Host-Daten

      Elastic Security ermöglicht die interaktive Analyse von Endpoint-Daten aus Elastic Agent und Elastic Beats und unterstützt Technologien wie CrowdStrike und Microsoft Defender for Endpoint. Mit Session View können Sie Shell-Aktivitäten untersuchen, mit Analyzer ganze Prozesse.

      Informationen zur Security-Analyse für Host-Daten
      screenshot-security-session-manager-clean.png

      Security-Analyse für Netzwerkdaten

      Mit Elastic Security können Sie interaktive Karten, Diagramme, Ereignistabellen und mehr einsetzen, um netzwerkbasierte Daten zu schützen. Die Lösung unterstützt zahlreiche Netzwerk-Security-Lösungen, darunter OSS-Technologien wie Suricata und Zeek, Geräte von Anbietern wie Cisco ASA, Palo Alto Networks und Check Point sowie Cloud-Dienste wie AWS, Azure, GCP und Cloudflare.

      Informationen zur Security-Analyse für Netzwerkdaten
      screenshot-security-network-view.jpg

      Security-Analyse für Nutzerdaten

      Elastic Security ist besonders stark, wenn es um Entitätsanalyen geht. Die Lösung ermöglicht Einblicke in Nutzeraktivitäten und unterstützt Security-Fachleute bei der Bekämpfung von Insider-Bedrohungen, Kontoübernahmen, Fällen von Berechtigungsmissbrauch und ähnlichen Vektoren. Die umgebungsweite Erfassung von Daten unterstützt mit Nutzerdaten, die mittels kuratierter Visualisierungen und Tabellen präsentiert werden, das Security-Monitoring. Innerhalb des Threat-Hunting- oder Untersuchungsflusses wird Nutzerkontext bereitgestellt, wobei weitere Details stets nur ein paar Klicks entfernt sind.

      1-security-user-detail.png

      Timeline-Ereignisanzeige

      Mit der Timeline-Ereignisanzeige können Analyst:innen Ereignisse einsehen, filtern, korrelieren und kommentieren, Daten zur Aufdeckung von Angriffsursache und ‑umfang sammeln, die Untersuchenden koordinieren und Informationen als sofortige und langfristige Referenzquelle verpacken.

      Informationen zur Timeline-Ereignisanzeige
      screenshot-security-timeline-network-7-14.jpg

      Case Management

      Workflows für das integrierte Case Management geben Ihnen zusätzliche Einflussmöglichkeiten beim Erkennen von Fällen und beim Reagieren auf sie. Mit Elastic Security können Analyst:innen Fälle einfach und schnell öffnen, aktualisieren, kennzeichnen, kommentieren, schließen und in externe Systeme integrieren. Eine offene API und die integrierte Unterstützung für IBM Resilient, Jira, Swimlane und ServiceNow ermöglichen die Ausrichtung an vorhandenen Workflows.

      Informationen zu Fällen
      screenshot-security-case-comment.jpg

      Erkennungs-Engine

      Die Erkennungs-Engine führt verfahrensbasierte Aufgaben zur Erkennung von Bedrohungen aus und sendet bei ausreichend großen Anomalien entsprechende Warnungen. Von den Elastic Security-Expert:innen entwickelte und getestete vordefinierte Regeln helfen dabei, die Akzeptanz zu beschleunigen. Für alle Daten, die für Elastic Common Schema (ECS) formatiert sind, lassen sich individuelle Regeln definieren.

      Informationen zu Erkennungsmechanismen
      screenshot-security-detection-rules-cloud-more-7.10.png

      Anomalieerkennung mittels Machine Learning

      Das integrierte Machine Learning ermöglicht die automatische Erkennung von Anomalien zur Unterstützung von Erkennungs- und Hunting-Workflows. Und ein ganzes Portfolio vordefinierter ML-Jobs hilft, die Akzeptanz zu beschleunigen. ML-Ergebnisse werden auch von Alerting- und Untersuchungs-Workflows genutzt.

      Mehr über Machine Learning erfahren
      screenshot-security-detection-ml-jobs.jpg

      Verhaltensorientierter Schutz vor Ransomware

      Elastic Security nutzt die Analyse von Verhaltensmustern im Elastic Agent, um Ihre Systeme vor Ransomware zu schützen. Ransomware-Angriffe auf Windows-Systeme werden gestoppt, indem Daten aus Low-Level-Systemprozessen analysiert und entsprechende Gegenmaßnahmen ergriffen werden. Dieses Vorgehen hat sich bei einer ganzen Reihe von verbreiteten Ransomware-Familien als wirksam erwiesen.

      illustration-endpoint-security-stop-malware-1284x926.png

      Schutz vor Schadverhalten

      Die Elastic Agent-Funktionen zum Schutz vor Schadverhalten stoppen komplexe Bedrohungen am Endpoint und bieten damit eine zusätzliche Schutzschicht für Linux-, Windows- und macOS-Hosts. Der Schutz vor Schadverhalten unterstützt durch die dynamische Vermeidung von Post-Execution-Verhalten, das komplexen Bedrohungen einen Riegel vorschiebt, die ohnehin bestehenden Funktionen zur Abwehr von Malware und Ransomware.

      Anti-Malware

      Der signaturlose Malware-Schutz setzt Schadsoftware, die Linux-, Windows- und macOS-Hosts befällt, sofort schachmatt. Die Funktion ist Bestandteil des Elastic Agent, der auch Security-Daten erfasst, und die Host-basierte Untersuchung und Bekämpfung ermöglicht. Kibana-basierte Verwaltungsfunktionen rationalisieren die Bereitstellung und Verwaltung.

      Informationen zum Schutz vor Malware
      screen-recording-security-endpoint-admin-activate.gif

      Host-Arbeitsspeicher-Schutz

      Der Speicherschutz in Elastic Agent weist viele der Verfahren in die Schranken, die für das Injizieren von Prozessen mittels Shellcode verwendet werden. So werden Subverfahren, wie das Hijacking von Thread-Ausführungen, asynchrone Prozeduraufrufe, Process Hollowing und Process Doppelgänging, gestoppt.

      Bedrohungsabspeicherung für Schutz vor künftigen Bedrohungen

      Bedrohungsabspeicherung für Schutz vor künftigen Bedrohungen hilft gegen Verfahren, die gern von komplexen Bedrohungen eingesetzt werden, um traditionelle Verteidigungsmaßnahmen zu umgehen, wie Shellcode, Hijacking der Thread-Ausführung, asynchrone Prozeduraufrufe, Process Hollowing und Process Doppelgänging.

      Zentrales osquery-Management

      Elastic Security ermöglicht die einfache Bereitstellung von osquery auf jedem Endpoint und optimiert so das Threat-Hunting sowie die Host-Inspektion bei Linux-, Windows- und macOS-Hosts. Diese Lösung bietet direkten Zugriff auf aussagekräftige Hostdaten, abrufbar mit einer vor- oder nutzerdefinierten SQL-Abfrage, die dann in Elastic Security analysiert werden können.

      Informationen zu osquery auf Elastic Agent
      1-blog-elastic-security-7-13.gif

      Analyse der Host-basierten Netzwerkaktivität

      Mit Elastic Agent können Sie Netzwerkaktivität unbegrenzt vieler Hosts erfassen. Anhand der so gesammelten Daten lässt sich der Datenverkehr im Randbereich des Netzwerks und darüber hinaus analysieren, der Firewalls verborgen bleibt. Die Ergebnisse dieser Analyse helfen Security-Teams dabei, Bedrohungen wie Watering-Hole-Angriffe, Data Exfiltration und DNS-Angriffe zu bekämpfen. Die Integration für Network Packet Analyzer beinhaltet eine kostenlose kommerzielle Lizenz für Npcap, die weitverbreitete Packet-Sniffing-Bibliothek für Windows. Damit erhalten Sie betriebssystemunabhängig Einblicke in Netzwerkdaten auf jedem Host.

        Auditieren von Cloud-Workload-Sessions

        Sichere Hybrid-Cloud-Workloads und Cloud-native Anwendungen mit einem leichtgewichtigen Agenten auf Basis von eBPF. Mit vorkonfigurierten und angepassten Erkennungsregeln und Machine Learning-Modellen erkennen Sie Laufzeitbedrohungen automatisch. Mit einer Terminal-ähnlichen Ansicht, die umfassenden Kontext bereitstellt, führen Sie Untersuchungen durch.

        screenshot-security-session-manager-clean.png

        KSPM-Datenerfassung und CIS-Status-Ergebnisse

        Sichern Sie sich transparenten Einblick in den Sicherheitsstatus über Multi-Cloud-Umgebungen hinweg. Prüfen Sie Ergebnisse, vergleichen Sie sie mit CIS-Benchmarks und befolgen Sie entsprechende Problemlösungsanleitungen, um schnell für Verbesserungen zu sorgen.