Dieser Algorithmus macht aus einem unscharfen Bild ein HD-Bild
Amerikanische Forscher haben eine Technik entwickelt, um mit Hilfe des maschinellen Lernens aus einem niedrig aufgelösten Bild ein hochauflösendes Bild zu erzeugen. Dabei ist wichtig zu wissen, dass das System nicht das Originalfoto wiederherstellt, sondern eine plausible und realistische Vorlage für das verschwommene Foto erzeugt.
Ist es dank der künstlichen Intelligenz (KI) möglich, das Gesicht eines Menschen auf einem unscharfen Foto zu finden, zum Beispiel auf einem Satellitenfoto, wie es in bestimmten Filmen zu sehen ist? Nun, nein, sogar KI haben es schwer, weil das verschwommene Bild einfach nicht die Informationen enthält, die sie brauchen, um das Original zu finden. Oder, um es anders auszudrücken, die Gesichter einer Vielzahl von Menschen würden wahrscheinlich nur ein einziges verschwommenes Gesicht ergeben.
Aus einem Bild mit niedriger Auflösung kann die künstliche Intelligenz jedoch ein sehr realistisches Gesicht in hoher Auflösung erzeugen. In einem vor einigen Tagen veröffentlichten wissenschaftlichen Artikel beschreiben Forscher der Duke University (North Carolina) eine effiziente Methode, um dieses Ergebnis zu erreichen. Ihre "Superauflösungstechnik" könnte in vielen Bereichen eingesetzt werden, in denen die Beschaffung von HD-Bildern kompliziert ist, insbesondere aus Kosten- und Speicherplatzgründen – wie etwa bei Satellitenbildern, in der Astronomie oder der Mikroskopie.
Neuer Ansatz, bessere Ergebnisse
Bisher wurden für maschinelle Lernverfahren zur Erzeugung eines hochauflösenden Bildes aus einem schlechten Bild gefaltete neuronale Netze verwendet, erklären die Autoren des Artikels. Diese Systeme, die mit Bildpaaren (verschlechterten und nicht verschlechterten) trainiert werden, erzeugen nach und nach ein qualitativ hochwertiges Bild, indem sie versuchen, den Unterschied zum verschlechterten Bild zu minimieren. Dieser Optimierungsansatz hat jedoch seine Nachteile. Einige Details, wie etwa die Textur, werden vernachlässigt, obwohl sie für den wirklichen Eindruck des erhaltenen Fotos wichtig sind. Das Ergebnis ist ein mittelmässig überzeugendes, hochauflösendes Foto.
Pulse-Renderings im Vergleich zu FSRNET- und FSRGAN-Techniken. (Source: Pulse)
Forscher an der Duke University haben einen ganz anderen Ansatz mit weitaus besseren Ergebnissen entwickelt. "Ziel sollte es sein, aus der Vielfalt der Lösungsmöglichkeiten realistische Bilder zu generieren, das heisst Punkte zu finden, die tatsächlich auf der Vielzahl der natürlichen Bilder liegen und die auch korrekt abgebaut werden können", erklären sie. Mit anderen Worten, ihre Technik wird zunächst eine Vielzahl von möglichen Bildern in hoher Auflösung unter Verwendung eines generativen Modells (etwa Gesichter) erzeugen. Dann wird ihr Algorithmus diese riesige Bildergalerie durchsuchen, um diejenigen zu finden, die, einmal degradiert, dem Eingabebild entsprechen.
Die erhaltenen Bilder sind also von hoher Auflösung und realistisch, da sie nicht aus einer Optimierung resultieren. Ein weiterer Vorteil des Ansatzes besteht darin, dass es nicht erforderlich ist, das Modell vorher mit Bildpaaren zu trainieren. Schließlich ermöglicht es das System, mehrere verschiedene Bilder zu erzeugen, welche zu einem einzigen unscharfen Bild führen.
Pro niedrig aufgelöstem Bild werden mehrere mögliche Bilder in hoher Auflösung errechnet. (Source: Pulse)