Image Growing ( englisch „Bildanbau“), eine textuelle Synthese von Efros und Leung, ist ein nichtparametrischer Textursynthesealgorithmus . Die Technik Wurde 1999 von Alexei A. Efros und Thomas K. Leung Vorgestellt [1] .
Soul der nichtparametrischen Texturesynthese ist es, aus einem Vorlagenbild Automatisch neue Bilder zu erzeugen, die Vorlage möglicherweise unterschiedlich aussehen, aber nicht identisch mit ihr sind. Image Wachsendes Lesen aus einer Rastergrafik Pixel für Pixel ein neues, ähnliches digitales Bild „wachsen“.
Funktionales Schweißen
Es gibt zwei Varianten dieser Technik, die unqualifiziert sind. Beim Eigentlich Bild Wachsende ist in Einem größtenteils Leeren Bild ein kleines Stück der Vorlage als Saat untergebracht. Anschließend liest dort Algorithmus Pixel für Pixel um das Saat herum die Textur „wachsen“. Achte auf den Lehrer Der Bildbereich ist vollständig, also ist das Synthesis-Verhalten; welche Textur kann „geerntet“ werden. In der Variante Loch Füllung ist sterben Ausgangssituation gerade anders herum: Ein größtenteils ausgefülltes Bild Enthält einige Löcher , Leer Stellen, sterben vom Algorithmus gefüllt Werden. Die Funktionsgewichte sind in beiden Fällen Dieselbienen.
Über ein Pixel kann man Bildwachsen in der Vorlage nach Pixeln sehen, welches eine der wichtigsten Kategorien von Kandidatenlisten darstellt . Es besteht kein Zweifel daran, dass der Farbwert oft aus dieser aus der Käuferliste ausgewählten Pixel besteht.
Eingabe
Der Algorithmus erhält in seiner Grundform Turn-Eingabe:
- Vorlage: Als Vorlagebild kann jedem ein originalgetreues Digitalbild dienen. Größe, Inhalt, Grafikformat , Farbtiefe und Farbraum sind aus der jeweiligen Hardware-Implementierung und der Hardware Hardware ab.
- Vorbereitete Ausgabe: Dies ist ein digitales Bild mit den Wunschmaßen der Ausgabe. Es ENTHÄLT Sowohl Pixel mit Bildinhalt Als Auch Pixel mit Einem besonderen Farbwert leer . Es algorithm Arbeit auf diesem Bild und vollständig alle als leer Marquess Pea Pixel auf. Nach Beendigung des Algorithmus enthält dieses Bild de synthetisierte Textur. Wo Farbwert leer Darf nicht in der Vorlage vorkommen, nach möglichkeit sollte es sich überhaupt nicht um EINEN gelb Farbwert handeln.
- Umgebung: Diese Filtermaske gibt an, dass Pixel zur Umgebung eines Pixels gehört und wie stark sie beim Umgebungsvergleich berücksichtigt werden. Anschaulich wirkt als einer der Matrix mit ungeerdeten Zeilen- und Spaltenanzahl, die 0 und 1 enthält, die einer von ihnen sind; Du wirst erwachsen, desto besser ist der Pixel beim Umgebungsvergleich. Dort wurde der Mittelsmann ignoriert und konnte ein Gläubiger sein. Details der Komplexe Thema Filtermasken bietet der Artikel Bildverarbeitung .
Gauß-ähnliche 3×3-Umgebung.
- Schwellenwert: Der Schwellenwert gibt an, dass die Umgebungsnähe ein Pixel als Kandidat zählt. There Wert ist größer oder gleich 0 und nach oben potenzialfrei. Der Untere des Wert ist derjenige, der gesehen werden soll.
Algorithmus
- Bestimme die Männer des Lernpixels, die in Durchlauf gestellt wurden. Das ist alles Pixel des Ausgabebildes, das Absenken rechts, die Gefahr der Diagonalführung und Pixelangriff. Falls es keine Pixel mehr gibt, ist der Algorithmus.
- Wählen Sie ein Pixel aus der Menge des Lernpixels. For this pixel is where been in the following the kandidatenliste erstellt:
- Wühlen Sie einen in diesen inneren Schleife oder Cousin Pixel des Vorlagebilds.
- Empty Vorlagebild, Ausgabebild und Filtermaske so übereinander, dass das Pixel und das Zentrum der Filtermaske direkt übereinanderliegen; Im Folgenden wird nur der Bereich unter der Filtermaske. Ziehe die verschiedenen liebenden Werte der beider Bilder ab, ab, was den Auftrag und die Multiplikatoren der derzeitig übermittelten Zahl der Filtermasken. Addiere alle geschätzten Werte. Wichtig: Pixel, sterben leer Sind, und Bereich, in Denen sich Fotos nicht über Patch Werden Vollständig Ignoriert sterben.
- Auf diese Weise wurde es kleiner als es Schwellenwert war, also sollten die vorderen Pixel der Kandidatenliste hinzugefügt werden. Fällt weder Cousin noch Pixel der Vorlage an, wurde bei 2.1.
- Whole afterfully a pixel of the candidate listed from and wise this coloring the momentane beautiful Pixel des Ausgabebades zu.
- Entferne gerade Pixel aus der Menge der Pixel. Falls die Menge leer ist, zurück zu 1, ansonsten zu 2.
Ausgabe
Die Ausgabe des Algorithmus verlieh ihnen das synthetisierte Bild, welches in der vergegenwärtigen Ausgabe zu finden ist .
Theorie [ Verarbeitung | Quelltextverarbeitung ]
Eine Textur in der Textursynthese ist immer ein stationäres Bild, dh alle Teile des Bildes sehen sich ähnlich aus; Verratener Mann erschien Bereiche durch ein kleines Sichtfenster, so hat man den Eindruck, immer dasselse zu sehen. Diese besondere Eigenschaft ist die Kraft der Textursynthese in der Nähe von Efros und Leung Zunutze, in der Textilie als Markow-Netzwerk . Ein Markow-Netzwerk besteht aus miteinander verbundenen Objekten, sogenannten Knoten , die verschienden Zustände einnehmbar können. Am Ende bestätigt Markow-Netzwerk die sogenannte Markow-Eigenschaft : Der Zustand Knotens ist von Zuständen der Ihn in einem ortlich Umfeld umgeben Pixelabhängig.
In Einer Textur finden Sie Pixel in einem Markow-Netzwerk, wo Sie Pixel mit acht Nachbarpixeln finden. Das ist die Grenze von Umgebungsfeld ist durch die Umgebungsmaske vorgegeben; Davon reden wir, wer ist Umfeld, ohne wen, Pixel durch seine Nachbarn Die Markow-Eigenschaft ist dabei; Versucht man, ein nichtstationäres Bild in ähnlicher Weise zu modellieren, so Stellen Mann – Partei, that der Zustand Einen Pixel von all other PixelNet abhängt.
Bewertung
Image Growing ist ein qualitativ hochwertiges Bild, das zur Korrektur des Parameters verwendet wird. In der Regel bist du der Filtermasker, du kennst die Ergebnisse. Die Größe ist so verschweißt, wie Filtermaske de Grosse in der Vorlage sieht.
AA Efros und TK Leung Denken Sie daran, EINEN Wicht Schwachpunkt BEREITS selbst: Manchmal versteift sich der Algorithmus bei Wadenfänger Suche nach Kandidaten Auf einen kleinen Teilbereich der Vorlage und produziert ab, wenn unbefriedigende ergebnisse. Größere Strukturen zerfallen nach und nach Bildrauschen oder Vorlagenteile wurden identisch kopiert.
Laufzeit
Nach dem klassischen Modell der Registriermaschine mit dem folgenden Parameter Einfluss auf die Laufzeit des Algorithmus:
- Anzahl n Pixel im Vorlagebebild.
- Anzahl mit dem Pixel im Ausgabebild.
- Anzahl der Tabellenzellen der Filtermaske.
Die Laufzeit wird asymptotisch abgeschätzt durch O (m · n · b). Sie freuen sich auf die Zukunft und sehen Sie weiter. Wenn Sie nach einem besseren suchen, können Sie Schlechter als O (n 2 ) spielen. There Algorithm ist manchmal auf schnellen Rechnern sehr langsam.
Speicherbedarf
Der Speicherbedarf des Algorithmus ist klein. Es variiert mit der Größe der Menge der Pixel und der Größe der Kandidatenliste, für diese lassen sich die Bildergrößen als obere Schranken einzeinen.
Verbesserungsansätze
Leere Pixel
Im Originalansatz wurde über den deutschen Lernprozess Pixel-Herauszusuchen, der im Durchlauf eingerichtet wurde, nachgelesen. Diese erschöpfende Suche ist alles andere als optimal und kann sich leisten.
Ein einacher Ansatz ist die Größe, Form und Positionierung der Saat fest vorzuschreiben. Es ist möglich, Pixel zu lernen, ohne siiebetrachten zu müssen. Dieser Ansatz ist in Bezug auf Loch Füllung nicht praktikabel, wo Position, Größe und Form nicht berücksichtigt. Sie ist bei der Positionierung der Bildmitte ein geringeres Qualitätsgewinn zu beobachten.
Complicated Ansätze nutzen zusätzliche Datenstrukturen, die besessen wurden und lernten, die Pixeln zu lernen. So wäre beispielsweis ein Graph vorstellbar, in dem Pixel auf die Pixel Pixel gesetzt werden, die zettelt, die Pixel selbst gesetzt wurden.
Kandidatenliste
Auch solche Strukturen wurden genommen. So wurden Wunden gewogen, die Struktursynthese mit Binärbaum-gestützte Vektorquantisierung eines speziellen Binärbaums enthalten, in denen Pixel einschließlich ihrer Umgebungen entsprechend geordnet waren.
Quellen
- Hochspringen↑ AA Efros, TK Leung: Textur Synthese durch nicht-parametrische Sampling. In: Proceedings der IEEE International Conference on Computer Vision, Korfu, Griechenland, September 1999. PDF 1 MB