Cycle Generative Adversarial Network (CycleGAN) ist ein künstliches neuronales Netzwerk, das speziell für die Bild-zu-Bild-Übersetzung entwickelt wurde. Es handelt sich um eine Weiterentwicklung der Generative Adversarial Networks (GANs), die in der Lage sind, Bilder aus einem Quellenbereich in einen Zielbereich zu übersetzen, ohne dass dafür paareweise trainierte Daten erforderlich sind. Dies macht CycleGAN besonders nützlich für Anwendungen, bei denen die Erstellung von paireweise Daten schwierig oder kostenintensiv ist.
Im Gegensatz zu herkömmlichen GANs, die oft auf die Erzeugung von Bildern aus Textbeschreibungen oder auf die Überfüllung von Datensätzen beschränkt sind, kann CycleGAN komplexe Transformationen zwischen zwei Domänen durchführen. Das Netzwerk besteht aus zwei Generatoren und zwei Diskriminatoren. Die Generatoren sind für die Übersetzung von Bildern zwischen den beiden Domänen verantwortlich, während die Diskriminatoren dafür sorgen, dass die erzeugten Bilder realistisch und überzeugend sind.
Ein zentraler Bestandteil von CycleGAN ist der sogenannte „Cycle Consistency Loss„. Dieser Verlustmechanismus stellt sicher, dass die Übersetzung zwischen den beiden Domänen konsistent ist. Wenn beispielsweise ein Bild aus Domäne A in Domäne B übersetzt wird, soll das zurückübersetzte Bild aus Domäne B wieder dem ursprünglichen Bild aus Domäne A entsprechen. Dieser Ansatz hilft, die Stabilität und Qualität der Übersetzungen zu verbessern.
CycleGAN findet Anwendungen in verschiedenen Bereichen, wie z.B. der Bildbearbeitung, der Stilübertragung und der Datenerweiterung. Es ist besonders nützlich für Aufgaben, bei denen die Erstellung von trainierten Datensätzen schwierig ist, wie z.B. die Umwandlung von Skizzen in fotorealistische Bilder oder die Anpassung von Bildern an unterschiedliche Stile. Durch die Fähigkeit, komplexe Transformationen ohne paareweise Daten durchzuführen, bietet CycleGAN einen großen Mehrwert in der künstlichen Intelligenz und maschinellen Lernen.