Wasserstein-GAN (WGAN) ist eine spezielle Variante der Generativen Adversarial Networks (GANs), die in der künstlichen Intelligenz eingesetzt werden. GANs bestehen aus zwei neuronalen Netzen: einem Generator und einem Diskriminator. Der Generator erzeugt synthetische Daten, die möglichst realistisch sein sollen, während der Diskriminator versucht, die synthetischen von den echten Daten zu unterscheiden. Im Laufe des Trainings verbessern sich beide Netze gegenseitig, was zu hochwertigen, realistischen Generierungen führt.
Wasserstein-GANs wurden 2017 von Arbel et al. vorgestellt und sind eine Weiterentwicklung der ursprünglichen GAN-Architektur. Der Hauptunterschied liegt in der Verwendung der Wasserstein-Metrik, auch bekannt als Earth Mover Distance (EMD), zur Messung der Divergenz zwischen den realen und den generierten Datenverteilungen. Diese Metrik bietet eine stabilere und effizientere Alternative zu den traditionellen GAN-Methoden, da sie die Distanz zwischen den Verteilungen direkt misst, anstatt auf probabilistische Annahmen zu setzen.
Ein wesentlicher Vorteil von WGANs ist die bessere Stabilität während des Trainings. Im Gegensatz zu herkömmlichen GANs, bei denen das Training oft instabil sein kann, bieten WGANs eine zuverlässigere Konvergenz. Dies wird durch die Verwendung eines kritischen Netzes erreicht, das mit einem Gewichtsklipping-Verfahren trainiert wird, um die Lipschitz-Bedingung einzuhalten. Darüber hinaus liefern WGANs in der Regel qualitativ höhere Ergebnisse, insbesondere bei der Generierung von Bildern oder anderen komplexen Daten.
Wasserstein-GANs finden Anwendungen in verschiedenen Bereichen, wie der Bildgenerierung, dem Datenaugmenting oder der Style-Transfer. Sie sind besonders nützlich, wenn es darum geht, realistische und vielfältige Datenmengen zu erzeugen, die nahe an den echten Daten liegen. Durch ihre stabilen Trainingsdynamiken und besseren Ergebnisse haben sich WGANs zu einem wichtigen Werkzeug in der AI-Forschung und -Anwendung entwickelt.