Connect with us

Künstliche Intelligenz

Clips-App für Video: Apple stellt sie offenbar ein


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Apple beerdigt seine 2017 erstmals erschienene App Clips. Mit dem Tool war es möglich, auf iPhone und iPad kurze Videoclips aufzunehmen, mit Overlays und Animationen zu versehen sowie mit Filtern zu bearbeiten und mit einfachen Mitteln zu kürzen. Über die Jahre gab es immer wieder Verbesserungen, etwa durch die Integration von Memojis und Animojs sowie die Verwendung des LIDAR-Scanners aktueller iPhones für Augmented-Reality-Aufnahmen. Die App griff damit den Trend zu Kurzvideos wie jenen auf TikTok auf, noch bevor sich diese durchgesetzt hatten.

Weiterlesen nach der Anzeige

Zuletzt hat Apple Clips jedoch schon seit Jahren nicht mehr mit neuen Funktionen aktualisiert, nur immer mal wieder Fehlerbehebungen eingebaut. Dies gipfelte darin, dass Apple die Anwendung mittlerweile offiziell aus dem App Store gestrichen hat. Zwar gibt es auf der deutschen Website noch Hinweise auf die App, Apples US-Seite leitet jedoch auf ein Benutzerhandbuch weiter, mit dem man künftig nichts mehr anfangen können wird.

In einem englischsprachigen Supportdokument wird die Einstellung dann auch konkret kommuniziert: Als Datum der Löschung der App aus dem App Store nennt Apple hier den vergangenen Freitag (10. Oktober). Clips wurde für iOS 26 und iPadOS 26 nicht mehr konkret angepasst, soll aber zunächst lauffähig bleiben. Da Apple die App schnell auf allen iPhones vorinstalliert hatte, haben viele User also weiterhin Zugriff. Ein erneuter Download im App Store ist zudem möglich, wenn man die Anwendung zuvor einmal installiert hatte.

In dem Supportdokument schreibt Apple weiter, wie Nutzer vorgehen sollen, um ihre Videos zu exportieren. So kann man sie mit und ohne Effekte in die Mediathek von iPhone oder iPad oder in andere Apps sowie als Dateien exportieren, dabei auch das Bildseitenverhältnis bestimmen. Projekte lassen sich allerdings nicht exportieren.

Apple empfiehlt, eine Weiterverarbeitung anschließend mit iMovie oder anderen konkurrierenden Tools wie InShot VN Video Editor oder GoPro Quik vorzunehmen. Apple hat noch keine Angaben dazu gemacht, wann Clips gar nicht mehr – also auch nicht mehr für bestehende Nutzer – unterstützt wird. Dies dürfte spätestens der Fall sein, wenn Inkompatibilitäten mit iOS 26 und iPadOS 26 auftreten. Denn Updates wird es nicht mehr geben.

Weiterlesen nach der Anzeige


(bsc)



Source link

Künstliche Intelligenz

Gar keine Eisriesen? Neptun und Uranus Im Innern womöglich doch eher felsig


Anders als gemeinhin angenommen, könnten die beiden äußersten Planeten des Sonnensystems eher felsig statt eisig sein: Uranus und Neptun wären dann keine Eisriesen, sondern Gesteinsriesen. Das jedenfalls legt eine Untersuchung von zwei Forschenden der Universität Zürich nahe, die jetzt vorgestellt wurde. Luca Morf und Ravit Helled schließen daraus, dass bisherige physikalische Modelle zum Aufbau der beiden Himmelskörper zu vereinfachend waren, ihr Inneres sei keineswegs auf Eis beschränkt. Das hätten sie bereits vermutet, aber erst jetzt habe man rechnerische Belege dafür. Der Befund würde demnach auch dazu passen, dass der nicht so weit von beiden entfernte Zwergplanet Pluto ebenfalls überwiegend aus Gestein bestehe.

Weiterlesen nach der Anzeige

Wie die beiden Forschenden erläutern, haben sie für ihre Analyse physikalische und empirische Modelle zu den beiden Planeten kombiniert. Das Ergebnis seien „neue, neutrale und physikalisch konsistente Modelle“ gewesen. Ausgehend von einem zufälligen Dichteprofil haben sie dann ein Gravitationsfeld errechnet, das mit den Beobachtungen übereinstimmte. Daraus haben sie eine mögliche Zusammensetzung abgeleitet. Das haben sie oft genug wiederholt, um die bestmögliche Übereinstimmung zwischen Modell und Messdaten zu erreichen. Herausgekommen sei, dass die mögliche Zusammensetzung von Uranus und Neptun keineswegs auf Eis beschränkt sei.

Herausgekommen sei bei der Arbeit obendrein, dass das Magnetfeld des Uranus tiefer liegen könnte, als das von Neptun. Bei beiden unterscheiden sie sich enorm von dem der Erde, weil sie nicht nur chaotischer sind, sondern auch mehr als zwei Pole hätten. Ihre Vermutung zur Zusammensetzung der beiden Planeten schränken sie derweil ein. Die Ergebnisse seien vielversprechend, aber es bleibe „eine gewisse Unsicherheit“. Man verstehe noch nicht gut genug, wie sich Materialien im Inneren von Planeten verhalten und das könne die Ergebnisse beeinflussen. Ihre Arbeit könnte aber den Weg für ein grundlegendes neues Bild des Sonnensystems ebnen. Neben den Gesteinsplaneten und den Gasriesen würde das dann nicht aus Eisriesen bestehen. Die Arbeit ist in Astronomy & Astrophysics erschienen.


(mho)



Source link

Weiterlesen

Künstliche Intelligenz

Falscher Druckertoner: Amazon und Brother gewinnen Prozess


Der Internet-Handelskonzern Amazon und der Druckerhersteller Brother haben vor Gericht einen Erfolg gegen Produktfälscher in Europa erzielt. Dabei ging es um gefälschte Tonerkartuschen für Drucker, die im Internet über Amazon verkauft wurden. Das Landgericht Berlin verurteilte eine ganze Reihe von beklagten Personen und Firmen dazu, 500.000 Euro Schadenersatz an Brother zu zahlen. Das nun bekannt gewordene Urteil erging bereits am 1. Juli.

Weiterlesen nach der Anzeige

Außerdem müssen die Beklagten den Firmen Brother und Amazon weitere Schäden ersetzen sowie den Vertrieb nachgefüllter Druckerkartuschen unterlassen, diese herausgeben und Auskunft über die Herkunft und Vertriebswege erteilen. Den Streitwert hatte das Gericht auf 2,2 Millionen Euro festgesetzt.

Die Verkäufer hätten „zumindest fahrlässig gehandelt“, so das Gericht. „Gewerbliche Einkäufer müssen in Anbetracht der weiten Verbreitung von Piraterieware beim Einkauf von Markenwaren regelmäßig deren Echtheit überprüfen.“

Ihre Klage hatten Amazon und Brother 2022 wegen Produktfälschung oder Vertrieb gefälschter Produkte gegen insgesamt 18 Personen und Firmen gestellt. Für einen Teil der Beklagten ist das Urteil rechtskräftig, für andere noch nicht.

Das Gericht stellte in seinem Urteil auch fest, dass bei Durchsuchungen in Berlin bereits 2019 große Mengen gefälschte Tonerkartuschen beschlagnahmt wurden. Andere Kartuschen seien unter der Marke Brother angeboten worden, obwohl sie nachgemacht waren.

Lesen Sie auch

Amazon sprach in einer Mitteilung von einem organisierten Fälschernetzwerk in Deutschland. Die Fälscher hätten leere Original-Tonerkartuschen gekauft und diese mit unechtem Tonerpulver befüllt. Auch hätten sie gefälschte Kartuschen verkauft, die wie Originalprodukte aussehen sollten.

Weiterlesen nach der Anzeige

In Berlin waren Polizei und Staatsanwaltschaft erneut im Februar 2024 mit einer Razzia gegen sechs mutmaßliche Fälscher von Druckerpatronen vorgegangen. Durchsucht wurden 18 Geschäftsräume, Callcenter und Wohnungen in Berlin und im Umland. Die Polizei beschlagnahmte Fälschungsmaterial und Fälschungswerkzeuge sowie Bargeld in sechsstelliger Höhe.

Die Männer sollen mit gefälschten Druckerpatronen und -kartuschen vierteljährlich einen Umsatz von rund 3,5 Millionen Euro gemacht haben, hieß es in der damaligen Mitteilung der Staatsanwaltschaft. Das Geld sei dann über ungarische Strohleute und deutsche Konten an die Bande geflossen. Bekannt wurde der mutmaßliche Betrug demnach durch Anzeigen von Brother und Amazon. Testkäufe hätten den Verdacht bestätigt, so die Staatsanwaltschaft.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

Warnung vor „wahnhaftem Output“: So sollen KI-Firmen Chatbots sicherer machen


Seit dem Beginn der KI-Ära gibt es nicht nur positive Auswirkungen der smarten Tools. So machen etwa einige Familien OpenAI und ChatGPT für Suizide verantwortlich. Zudem gibt es weitere Berichte darüber, wie gravierend sich die Nutzung von KI auf Personen auswirken kann, deren psychische Gesundheit angeschlagen ist. Diese vergangenen und mögliche zukünftige KI-Probleme rufen in den USA jetzt 42 Generalstaatsanwälte auf den Plan, die die großen KI-Unternehmen in einem Brief verwarnen.

Weiterlesen nach der Anzeige

Der Brief beginnt mit den Worten: „An die Rechtsvertreter von Anthropic, Apple, Chai AI, Character Technologies, Google, Luka, Meta, Microsoft, Nomi AI, OpenAI, Perplexity AI, Replika und xAI“. Darauf folgen insgesamt sieben Seiten mit problematischen Entwicklungen rund um KI, wiederum gefolgt von insgesamt vier Seiten mit den Unterschriften aller beteiligten Generalstaatsanwälte.

Im Detail heißt es von den Verantwortlichen, dass sie „ernste Bedenken über die steigende Zahl von kriecherischem und wahnhaftem Output an User“ haben, der von „generativer Künstlicher-Intelligenz-Software“ hervorgeht. Zudem gebe es laut den Generalstaatsanwälten immer mehr „verstörende Berichte über KI-Interaktionen mit Kindern“. Daraus ergebe sich eine sofortige Handlungspflicht für die Betreiber der KI-Tools, um alle Nutzer besser zu schützen.

Als Beispiele nennen die Generalstaatsanwälte Fälle, in denen KI-Nutzer nach Konversationen mit den Tools Selbstmord begingen, andere oder sich selbst verletzten beziehungsweise vergifteten oder aufgrund von KI‑ausgelöster Psychosen im Krankenhaus gelandet sind. In Konversationen mit Minderjährigen sollen mehrere Chatbots hingegen Essstörungen unterstützt, sexuelle Handlungen zwischen Erwachsenen und Kindern normalisiert und Gewalt verherrlicht haben. Zu jedem Vorfall liefern die Generalstaatsanwälte eine Quellenangabe, um sie zu belegen.

Um solche und künftige Vorfälle mit KI zu verhindern, werden die Unternehmen dazu aufgefordert, zusätzliche Sicherheitsvorkehrungen zu treffen. Die Liste der Vorschläge umfasst insgesamt 16 Punkte, die teilweise noch Unterpunkte mit sich bringen. Zunächst sollen die Unternehmen „Richtlinien und Prozesse zu kriecherischem und wahnhaftem Output von generativer KI entwickeln“, um sie anhand dieser Regeln testen und weiter trainieren zu können.

Weiterlesen nach der Anzeige

Sollte eine KI schädlichen Output generieren, sollen die Unternehmen zudem Maßnahmen bereithalten, um sie vollständig vom Markt nehmen zu können. Ferner wollen die Generalstaatsanwälte, dass jederzeit eine Warnung an User ausgespielt wird, die sie vor potenziell gefährlichen Antworten warnen. Ebenso sollen User aktiv informiert werden, wenn es zu solchen Outputs kommt, und es soll einen Kanal geben, über den sie selbst solche Konversationen melden können.

Um Kinder besser zu schützen, sollen Chatbots ihren Output an das Alter der User anpassen können. Ein etwas allgemeinerer Punkt besagt, dass die KI-Entwickler sicherstellen sollen, dass ihre Tools keinen „rechtswidrigen oder illegalen Output für Accounts von Kindern generieren“, der etwa Drogenkonsum, Gewalt und Geheimhaltung vor den Eltern beinhaltet.

Abschließend schreiben die Generalstaatsanwälte: „Wir bitten Sie eindringlich und respektvoll darum, das Problem von kriecherischem und wahnhaftem Output ernst zu nehmen und daran zu arbeiten, das Problem zu beheben. Und wir freuen uns darauf, von Ihnen zu hören.“ Eine offizielle Stellungnahme der angeschriebenen KI-Unternehmen bleibt bisher aus.

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Weiterlesen

Beliebt