Online Marketing & SEO

SAM 3 von Meta revolutioniert Bild- und Videobearbeitung mit KI


Mit SAM 3 können User jetzt Objekte in Bildern und Videos noch zielsicherer in Echtzeit segmentieren. Das Modell kommt für Meta AI, Facebook Marketplace und auch in die Edits App.

UPDATE

Nachdem Meta im Juli 2024 das Segment Anything Model 2 (SAM 2) herausgebracht hat, launcht das Unternehmen nun die Nachfolgeversionen SAM 3 und SAM 3D. Die Segment Anything Models sind über einen Open-Source-Software-Lizenzvertrag für alle nutzbar und sollen laut Meta „die fortschrittlichste KI, um Bilder und Videos zu erkennen, zu bearbeiten und mit diesen zu experimentieren“ sein.

Mit SAM 3 kannst du unter anderem folgende Aktionen ausführen:

  • Elemente aus Bildern oder Videos isolieren
  • Ausgewählte Bereiche in flexibel bearbeitbare Elemente umwandeln
  • Effekte wie Weichzeichnen oder Klonen nutzen
  • Wiederverwendbare Vorlagen erstellen, speichern, herunterladen und teilen

Die Modelle sollen bald im Rahmen verschiedener Features im Facebook Marketplace, der Edits App sowie Meta AI verfügbar sein.

Dieser Beitrag erschien erstmals am 31. Juli 2024.


Nach dem erfolgreichen Launch des Segment Anything Models (SAM) im Jahr 2023 legt Meta mit SAM 2 nach. Das Modell ist über Apache 2.0 – einen Open-Source-Software-Lizenzvertrag – für alle nutzbar. SAM 2 erlaubt in Echtzeit die Objektsegmentierung in Bildern und auch in Videos und lässt sich auch mit Prompts steuern. Das Modell lässt sich für verschiedene Zwecke einsetzen, von der simplen Objektbearbeitung über die KI-gesteuerte Generierung neuer Bildeffekte bis hin zur Optimierung von Computer Vision dank vereinfachter Annotation.

SAM 2 und SA-V im Überblick: Meta vereinfacht Visual-Bearbeitung

Auf dem eigenen Blog erklärt Meta, was die neue Generation des Segement Anything Models zu bieten hat. Vor allem die erhöhte Präzision bei der Obejktmarkierung in Bildern sowie Videos sticht demnach heraus.

Die Objektmarkierung wird mit SAM 2 präziser als mit SAM, © Meta, Fische im Meer, bunt, eine differenzierte Objektmarkierung mit Plussymbol und roter Einfärbung, rechts und links
Die Objektmarkierung wird mit SAM 2 präziser als mit SAM, © Meta
https://video-ham3-1.xx.fbcdn.net/o1/v/t2/f2/m69/An-8ytszLFnDUxLkHrJDcwow1t6sbNtqg8sbgoObs2HwNZ9hjYzQHCbQJpd3XB5Jz2s--tQWtPsdR-0vCL_q7_s.mp4?efg=eyJ2ZW5jb2RlX3RhZyI6Im9lcF9oZCJ9&_nc_ht=video-ham3-1.xx.fbcdn.net&_nc_cat=105&strext=1&vs=7295a7832f06cad5&_nc_vs=HBksFQIYOnBhc3N0aHJvdWdoX2V2ZXJzdG9yZS9HTTZzOGhvLUpTd0NUTHNiQUFEOUJVRzNqUDEwYm1kakFBQUYVAALIAQAVAhg6cGFzc3Rocm91Z2hfZXZlcnN0b3JlL0dPX3JfeHBod0R3NjZoSURBT1M1Vnh5N0tyMWtickZxQUFBRhUCAsgBAEsHiBJwcm9ncmVzc2l2ZV9yZWNpcGUBMQ1zdWJzYW1wbGVfZnBzABB2bWFmX2VuYWJsZV9uc3ViACBtZWFzdXJlX29yaWdpbmFsX3Jlc29sdXRpb25fc3NpbQAoY29tcHV0ZV9zc2ltX29ubHlfYXRfb3JpZ2luYWxfcmVzb2x1dGlvbgAddXNlX2xhbmN6b3NfZm9yX3ZxbV91cHNjYWxpbmcAEWRpc2FibGVfcG9zdF9wdnFzABUAJQAcjBdAAAAAAAAAABERAAAAJoDuq%2B7Gn7gBFQIoAkMzGAt2dHNfcHJldmlldxwXQBwAAAAAAAAYGWRhc2hfaDI2NC1iYXNpYy1nZW4yXzcyMHASABgYdmlkZW9zLnZ0cy5jYWxsYmFjay5wcm9kOBJWSURFT19WSUVXX1JFUVVFU1QbCogVb2VtX3RhcmdldF9lbmNvZGVfdGFnBm9lcF9oZBNvZW1fcmVxdWVzdF90aW1lX21zATAMb2VtX2NmZ19ydWxlB3VubXV0ZWQTb2VtX3JvaV9yZWFjaF9jb3VudAM5OTYRb2VtX2lzX2V4cGVyaW1lbnQADG9lbV92aWRlb19pZBAyMjA0ODUzMjE5ODQ5NTMzEm9lbV92aWRlb19hc3NldF9pZBAxMDE5NDMzMDEzMjI1MzU1FW9lbV92aWRlb19yZXNvdXJjZV9pZA80MDUxNjIzNjU5MDk4ODgcb2VtX3NvdXJjZV92aWRlb19lbmNvZGluZ19pZBAxOTQyMDU0NDQ5NTc4MzMxDnZ0c19yZXF1ZXN0X2lkACUCHAAlvgEbB4gBcwQ3NTk0AmNkCjIwMjQtMDctMjYDcmNiAzkwMANhcHAFVmlkZW8CY3QRQ01TX01FRElBX01BTkFHRVITb3JpZ2luYWxfZHVyYXRpb25fcwE3AnRzFXByb2dyZXNzaXZlX2VuY29kaW5ncwA%3D&ccb=9-4&oh=00_AYCUq4dHzVqBgmABpfZGhpAXFYJQYc2XTE6TbNE3ODwaUQ&oe=66ABEFBF&_nc_sid=1d576d&_nc_rid=309801372711234&_nc_store_type=1
© Meta

Insbesondere die Anwendungsmöglichkeiten im Bewegtbildbereich wollte Meta optimieren:

SAM was able to learn a general notion of what objects are in images. However, images are only a static snapshot of the dynamic real world in which visual segments can exhibit complex motion. Many important real-world use cases require accurate object segmentation in video data, for example in mixed reality, robotics, autonomous vehicles, and video editing. We believe that a universal segmentation model should be applicable to both images and video […].

Parallel zu SAM 2 hat Meta das Datenset SA-V mit über 51.000 Real-World-Videos gelauncht. Dieses ist über die CC BY 4.0-Lizenz verfügbar und bietet rund 53 Mal mehr Annotationen als das bisher größte Videodatenset für die Objektmarkierung.





Source link

Beliebt

Die mobile Version verlassen