Künstliche Intelligenz

macOS: Stable Diffusion in die eigene App integrieren


Wer Stable Diffusion, das wir in einem eigenen Artikel genauer vorstellen, selbst ausprobieren möchte, muss nicht gleich ein neuronales Netz trainieren. Apple stellt ein fertig konvertiertes Modell im Core-ML-Format bereit, das sich direkt verwenden lässt – einschließlich Unterstützung für CPU, GPU und Neural Engine.

Unser hier erarbeitetes Praxisbeispiel (Listing) verwendet vorbereitete Modelle und erzeugt damit bereits erste Bilder per Kommandozeile. Weiter geht es damit, aus Apples Beispielprojekten für Swift und Xcode eine App für iOS und macOS zu kompilieren. So entsteht aus der grauen Theorie der vorherigen Seite in der Praxis ein buntes Ergebnis, das sich buchstäblich sehen lassen kann.

Apples Frameworks zum Trainieren und Ausführen von Modellen heißen Create ML und Core ML. Für das Beispiel reicht Core ML, da es ein bereits trainiertes Stable-Diffusion-Modell von Hugging Face verwendet und Create ML daher nicht erfordert. Das Portal ist eine Sammelstelle für Modelle, Bibliotheken und Werkzeuge im Kontext künstlicher Intelligenz.


Das war die Leseprobe unseres heise-Plus-Artikels „macOS: Stable Diffusion in die eigene App integrieren“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Beliebt

Die mobile Version verlassen