Auf dieser Website wird das Besucheraktions-Pixel von Facebook für statistische Zwecke verwendet. Mit Hilfe eines Cookies kann so nachvollzogen werden, wie unsere Marketingmaßnahmen auf Facebook aufgenommen und verbessert werden können. Über Ihr Einverständnis hiermit würden wir uns sehr freuen. Informationen zum „Besucheraktions-Pixel“, zu Cookies und dem Ihnen zustehenden Widerspruchsrecht erhalten Sie in unserer Datenschutzerklärung. Dort können Sie Ihre Cookie-Einstellungen ändern. Wenn Sie auf "Cookies akzeptieren" klicken, stimmen Sie der Verwendung von Cookies zu.

Machine Learning erklärt

Die Entwicklung und Nutzung von künstlicher Intelligenz (KI) hält die Welt momentan am Atem. Ein Aspekt von KI ist das Machine Learning. Hierbei lernen IT-Systeme auf Basis von schon vorhandenen Daten, Muster zu erkennen und die Erstellung von analytischen Modellen, wie Prognosen, zu automatisieren. Doch wie funktioniert dieses System? Hier eine kurze Zusammenfassung.

Machine Learning kann z.B. genutzt werden für Sprach- und Texterkennung und Aktienmarktanalyse.

Unser Fokus heute ist die “validation set method”, eine Methode des Machine Learning, dessen Ziel es ist aus vorhandenen Daten zukünftige Entwicklungen zu prognostizieren. Um eine brauchbare Vorhersage zu garantieren, muss die Abweichung zwischen generierten Daten und tatsächlichen Daten so gering wie möglich gehalten werden. Deshalb werden die schon vorhandenen Daten in Validierungs- und Trainingsdaten aufgeteilt. Mithilfe der Trainingsdaten wird das System trainiert. Anschließend wird die Genauigkeit der Daten mit Hilfe der Validierungsdaten überprüft.

Je höher die Modellkomplexität ist (z.B. höhere Polynome), desto geringer ist die Fehlerquote der Trainingsdaten, sprich die Abweichungen zwischen tatsächlichen Daten und generieten Daten. Das liegt daran, dass die Funktion bei einer höheren Komplexität die Daten exakter wiedergeben kann.

Die Fehlerquote der Validierungsdaten nimmt zunächst langsamer ab als die der Trainingsdaten. Ab einem bestimmten Punkt nimmt die Fehlerquote wieder zu, da ein „overfitting“ der Daten stattfindet. Heißt, das System geht in zu großem Detail auf individuelle Schwankungen ein (“noise”), anstatt auf die Funktion. Der Sweet Spot ist der Punkt, an dem der Validierungsfehler minimal ist.