Die Entscheidungsgrenze bezeichnet in der Künstlichen Intelligenz und Maschinellen Lernen die Grenze, an der ein Modell eine Entscheidung trifft. Sie stellt die Trennung zwischen verschiedenen Klassen oder Kategorien in einem Klassifizierungsproblem dar. Die Entscheidungsgrenze ist somit ein zentraler Bestandteil von Klassifizierungsmodellen und bestimmt, welche Klasse oder Kategorie einem bestimmten Input zugeordnet wird.
Die Entscheidungsgrenze wird im sogenannten Merkmalsraum dargestellt, der durch die Merkmale oder Features der Daten definiert wird. Je nach Komplexität des Modells kann die Entscheidungsgrenze eine einfache Linie oder Hyperfläche sein, die die Klassen linear trennt, oder eine komplexere, nichtlineare Grenze, die durch Techniken wie Kernel-Methoden oder tiefere neuronale Netze generiert wird.
Während des Trainings eines Modells wird die Entscheidungsgrenze durch die Optimierung der Modellparameter bestimmt. Das Ziel ist es, die Grenze so anzupassen, dass sie die Datenpunkte verschiedener Klassen möglichst genau trennt. Die Qualität der Entscheidungsgrenze hat einen direkten Einfluss auf die Leistung des Modells, insbesondere auf dessen Genauigkeit und Allgemeinbarkeit.
Ein wesentlicher Aspekt der Entscheidungsgrenze ist die Balance zwischen Überanpassung (Overfitting) und Unteranpassung (Underfitting). Ein zu komplexes Modell kann eine Entscheidungsgrenze erstellen, die sich zu stark an die Trainingsdaten anpasst, was zu einer schlechten Allgemeinbarkeit führt. Ein zu einfaches Modell hingegen kann eine Entscheidungsgrenze erstellen, die die zugrunde liegenden Muster der Daten nicht ausreichend erfasst.