Diese Webseite nutzt Cookies

Diese Webseite verwendet Cookies zur Verbesserung der Benutzererfahrung. Indem Sie weiterhin auf dieser Webseite navigieren, erklären Sie sich mit der Verwendung von Cookies einverstanden.

Falls Sie Probleme mit einer wiederauftauchenden Cookie-Meldung haben sollten, können Ihnen diese Anweisungen weiterhelfen.

Essenzielle Cookies ermöglichen grundlegende Funktionen und sind für die einwandfreie Funktion der Website erforderlich.
Statistik Cookies erfassen Informationen anonym. Diese Informationen helfen uns zu verstehen, wie unsere Besucher unsere Website nutzen.
Mitglied werden Sponsor werden

Maschinelles Lernen

Maschinelles Lernen (mashine learning) ist ein Oberbegriff für die „künstliche“ Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Dazu bauen Algorithmen beim maschinellen Lernen ein statistisches Modell auf, das auf Trainingsdaten beruht. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern Muster und Gesetzmäßigkeiten in den Lerndaten erkannt. So kann das System auch unbekannte Daten beurteilen oder aber am Lernen unbekannter Daten scheitern. Aus dem weiten Spektrum möglicher Anwendungen seien hier genannt: automatisierte Diagnose­verfahren, Erkennung von Kreditkartenbetrug, Aktienmarkt­analysen, usw.

Das Thema ist eng verwandt mit Knowledge Discovery in Databases und Data-Mining, bei dem es jedoch vorwiegend um das Finden von neuen Mustern und Gesetzmäßigkeiten geht. Viele Algorithmen können für beide Zwecke verwendet werden. Methoden der „Knowledge Discovery in Databases“ können genutzt werden, um Lerndaten für „maschinelles Lernen“ zu produzieren oder vorzuverarbeiten. Im Gegenzug dazu finden Algorithmen aus dem maschinellen Lernen beim Data-Mining Anwendung. Zu unterscheiden ist der Begriff zudem von dem Begriff Deep Learning“, welches nur eine mögliche Lernvariante mittels künstlicher neuronaler Netze (oft auch kurz als Künstliche Intelligenz, KI bezeichnet) darstellt.

Anwendung in der Geothermie

Maschinelles Lernen kann in der Geothermie an vielen Stellen angewendet werden und wird auch schon (2021) angewendet. Die Exploration und hier die Geophysik ist nur ein Beispiel.

Glossar

Das maschinelle Lernen hat eine eigene Sammlung von Begriffen (meist englisch) entwickelt, die unverzichtbar sind, wenn man sich mit maschinellen Lernen beschäftigen will. Im folgenden finden Sie hierzu ein Glossar ( Amarjeet Kumar, Hampson Gary, Tom Rayment, Adaptive subtraction using a convolutional neural network, First Break, Volume 39, Issue 9, Sep 2021, p. 35 – 45, DOI: https://doi.org/10.3997/1365-2397.fb2021066):

Begriff

englisch

deutsch

Activation function

A class of thresholding functions to pass or modify a value.

Die Klasse der Schwellenwertfunktionen zum Übergeben oder Ändern eines Werts.

Autoencoder

An unsupervised neural network that learns how to encode (compress) data and approximately reconstruct (decode) it, by being presented with many examples.

Ein unüberwachtes neuronales Netz, das lernt, Daten zu kodieren (komprimieren) und annähernd zu rekonstruieren (dekodieren), indem es mit vielen Beispielen präsentiert wird.

Batch size

The number of patches to use to determine each update of the model parameters.

Die Anzahl der Patches, die verwendet werden sollen, um jede Aktualisierung der Modellparameter zu bestimmen.

Bottleneck

The smallest (thinnest) layer in an autoencoder containing a sparse representation of the input.

Der kleinste (dünnste) Layer in einem Autoencoder, der eine grobe Darstellung der Eingabe enthält.

Channel

A matrix of samples (or pixels) containing a type of data feature. Hidden layers typically have a number of channels (or feature maps).

Eine Matrix von Samples (oder Pixeln), die einen Typ von Datenmerkmal enthält. Ausgeblendete Layer haben normalerweise eine Reihe von Kanälen (oder Feature-Maps).

Convolution

2D or 3D linear convolution (reallycorrelation because the filter is not placed in reversed order).

2D- oder 3D-Linearfaltung (wirkliche Korrelation, da der Filter nicht in umgekehrter Reihenfolge platziert wird).

Convolutional autoencoder

An autoencoder that uses convolution with 2D or 3D filters to extract features from the data.

Ein Autoencoder, der Faltung mit 2D- oder 3D-Filtern verwendet, um Merkmale aus den Daten zu extrahieren.

Convolutional neural network

A neural network that uses convolution with filters instead of simple scalar weighting.

Ein neuronales Netzwerk, das Faltung mit Filtern anstelle einer einfachen skalaren Gewichtung verwendet.

Decoder

The part of an autoencoder after the bottleneck that reconstructs an estimate of the input data.

Der Teil eines Autoencoders nach dem Engpass, der eine Schätzung der Eingabedaten rekonstruiert.

Deep learning

A neural network with a number of hidden layers.

Ein neuronales Netz mit mehreren verdeckten Schichten.

Dictionary

A collection of essential features that can be combined to approximate the input.

Eine Sammlung wesentlicher Funktionen, die kombiniert werden können, um die Eingabe anzunähern.

Down-sample

Reduced number of samples in a feature map by pooling, convolution with stride>1 or not zero-padding before convolution.

Reduzierte Anzahl von Samples in einer Feature-Map durch Pooling, Faltung mit Stride>1 oder kein Null-Padding vor der Faltung.

ELU

Exponential linear unit - a type of activation function.

Exponentielle Lineareinheit - eine Art Aktivierungsfunktion.

Encoder

The part of an autoencoder before the bottleneck that decomposes and compresses the input data into a sparse set of essential characteristic features.

Der Teil eines Autoencoders vor dem Engpass, der die Eingabedaten in einen spärlichen Satz wesentlicher charakteristischer Merkmale zerlegt und komprimiert.

Epoch

Exposure of every patch in the training dataset to the autoencoder once. Typically training requires many epochs.

Jedes Patch im Trainings-Dataset wird dem Autoencoder einmal zugeordnet. Typischerweise erfordert das Training viele Epochen.

Feature map

The result of applying one filter to the previous layer. Synonymous with channel (but possibly more descriptive).

Das Ergebnis der Anwendung eines Filters auf die vorherige Ebene. Gleichbedeutend mit Kanal (aber evtl. aussagekräftiger).

Filter

A 2D or 3D linear convolutional filter.

Ein linearer 2D- oder 3D-Faltungsfilter.

Hidden layers

The layers between the input layer and the output layer.

Die Schichten zwischen der Eingabeschicht und der Ausgabeschicht.

Hyper-parameters

Parameters of the network set by the user, rather than by minimising the loss function.

Parameter des Netzwerks werden vom Benutzer eingestellt, anstatt die Verlustfunktion zu minimieren.

Latent representation

The essential features contained in the bottleneck which can be recombined by the decoder to produce an approximation of the input data.

Die im Engpass enthaltenen wesentlichen Merkmale können vom Decoder zu einer Approximation der Eingangsdaten rekombiniert werden.

Learning rate

This is equivalent to step-size in gradient descent algorithms.

Dies entspricht der Schrittgröße in Gradientenabstiegsalgorithmen.

Loss function

The objective or cost function of the network based on a norm (eg., L1 or L2) of the misfit between the input and the reconstructed output.

Die Ziel- oder Kostenfunktion des Netzwerks basierend auf einer Norm (zB L1 oder L2) der Fehlanpassung zwischen der Eingabe und der rekonstruierten Ausgabe.

Machine learning

A computer algorithm that adjusts its behaviour to better predict outcomes for a class of problems.

Ein Computeralgorithmus, der sein Verhalten anpasst, um Ergebnisse für eine Klasse von Problemen besser vorherzusagen.

Model parameters

The weights, biases and filter coefficients derived from the data by loss function minimisation.

Die Gewichte, Bias und Filterkoeffizienten werden aus den Daten durch Minimierung der Verlustfunktion abgeleitet.

Patches

Data is presented to the network in patches (subsets of the input data) which are rectangular and of a specified patch size, e.g., 64x64.

Daten werden dem Netzwerk in Patches (Untermengen der Eingabedaten) präsentiert, die rechteckig sind und eine spezifizierte Patch-Größe haben, z. B. 64 × 64.

Pooling

The combining of samples under a stencil to produce one output sample. Used in down-sampling.

Das Kombinieren von Samples unter einer Schablone, um ein Ausgabe-Sample zu erzeugen. Wird beim Downsampling verwendet.

Skip connections

Direct connections between layers in the encoder and decoder. Most usually to layers of the same dimension.

Direkte Verbindungen zwischen Schichten im Encoder und Decoder. Meistens auf Schichten der gleichen Dimension.

Standardisation

To shift and scale a dataset so that it has zero mean and unit standard deviation.

Verschieben und Skalieren eines Datasets, sodass der Mittelwert und die Einheitsstandardabweichung null sind.

Stride

The number of samples to shift a filter in each direction before calculating the next dot product of the convolution. One method of down-sampling.

Die Anzahl der Abtastwerte, um einen Filter in jede Richtung zu verschieben, bevor das nächste Punktprodukt der Faltung berechnet wird. Eine Methode zum Downsampling.

Supervised learning

Machine learning where the correct answer is provided to the network so that it can reduce its error.

Maschinelles Lernen, bei dem dem Netzwerk die richtige Antwort bereitgestellt wird, damit es seine Fehler reduzieren kann.

Transpose Convolution

2D or 3D correlation (really convolution because the filter is placed in reverse order). Beware, in some cases this is confusingly referred to as ‘deconvolution’.

2D- oder 3D-Korrelation (eigentlich Faltung, da der Filter in umgekehrter Reihenfolge platziert wird). Vorsicht, in einigen Fällen wird dies verwirrend als „Dekonvolution“ bezeichnet.

Up-sample

To generate more samples in a feature map by various forms of interpolation.

Generieren von mehr Samples in einer Feature-Map durch verschiedene Interpolationsformen.

Zero-padding

To extend one or more dimensions of a feature map with one or more zero values.

um eine oder mehrere Dimensionen einer Feature-Map mit einem oder mehreren Nullwerten zu erweitern.

Videos

https://www.youtube.com/watch?v=t3YC8_VoAoc

Weblinks

https://de.wikipedia.org/wiki/Maschinelles_Lernen

https://www.brunel.de/de-de/management-ratgeber/maschinelles-lernen

zuletzt bearbeitet Februar 2023, Änderungs- oder Ergänzungswünsche bitte an info@geothermie.de