Genauigkeit bezeichnet in der künstlichen Intelligenz (KI) und Maschinellen Lernen ein Maß, das die Fähigkeit eines Modells misst, korrekte Vorhersagen zu treffen. Es handelt sich um einen wichtigen Bewertungsparameter, insbesondere bei der Klassifikation, also der Zuordnung von Daten in bestimmte Kategorien. Die Genauigkeit wird berechnet, indem die Anzahl der korrekten Vorhersagen (sogenannte „wahre Positiven“) durch die Gesamtzahl der positiven Vorhersagen des Modells geteilt wird. Diese Gesamtzahl umfasst sowohl die korrekten Vorhersagen als auch die „falschen Positiven“, also die Fälle, in denen das Modell eine positive Klasse vorhersagt, obwohl diese tatsächlich nicht vorliegt.
Die Formel für die Genauigkeit lautet:
[
text{Genauigkeit} = frac{text{wahre Positiven}}{text{wahre Positiven} + text{falsche Positiven}}
]
Ein hohes Maß an Genauigkeit bedeutet, dass das Modell in der Lage ist, die positiven Fälle zuverlässig zu identifizieren, ohne viele falsche Positiven zu produzieren. Dies ist besonders wichtig in Anwendungen, in denen falsche Positiven schwerwiegende Konsequenzen haben können, wie beispielsweise in der medizinischen Diagnose oder bei Finanzentscheidungen.
Es ist jedoch wichtig zu beachten, dass die Genauigkeit nicht immer der einzige relevante Bewertungsmaßstab ist. In einigen Fällen kann ein Modell mit hoher Genauigkeit gleichzeitig eine geringe Treffsicherheit (Recall) aufweisen, was bedeutet, dass es möglicherweise viele tatsächliche positive Fälle nicht erkennt. In solchen Situationen muss ein Gleichgewicht zwischen Genauigkeit und Recall gefunden werden, um die beste Balance für den spezifischen Anwendungsfall zu erreichen.
Zusammen mit anderen Metriken wie der F1-Score, die die Harmonisches Mittel von Genauigkeit und Recall darstellt, bietet die Genauigkeit einen umfassenden Einblick in die Leistungsfähigkeit eines KI-Modells.