Künstliche Intelligenz
21 statt 10 Tonnen Nutzlast: Ariane 6 vor erstem Start mit vier Boostern
Europas stärkste Trägerrakete soll am Donnerstagabend erstmals in einer Version mit vier Boostern starten und damit noch einmal deutlich leistungsfähiger sein. Daran hat die Europäische Weltraumagentur ESA jetzt erinnert und ergänzt, dass auf dem Flug mit der Bezeichnung VA267 insgesamt 32 Satelliten für Amazons Internetprojekt Leo ins All gebracht werden sollen. Dank der vier Booster kann die dreistufige Trägerrakete dabei nun 21,6 Tonnen Nutzlast in eine niedrige Erdumlaufbahn befördern, in der Konfiguration mit zwei Boostern sind es lediglich 10,3 Tonnen. Während die schon fünfmal zum Einsatz gekommen ist, muss die Leistungsfähigkeit der neuen Variante jetzt erstmals unter realen Flugbedingungen nachgewiesen werden.
Weiterlesen nach der Anzeige

Vergleich der Konfigurationen
(Bild: ESA)
Die Ariane 6 ist das Nachfolgemodell der Ariane 5, die seit 1996 im Einsatz war und 2023 zum letzten Mal gestartet ist. Die Arbeiten an der Rakete haben sich unter anderem wegen der Coronapandemie stark verzögert, erst am 9. Juli 2024 hat sie deshalb ihren Jungfernflug absolviert. Wenn sie abhebt, werden zuerst die Booster gezündet, danach die Hauptstufe und zuletzt die Oberstufe. Die Anzahl der Booster und die Länge der Raketenspitze können die Verantwortlichen je nach Mission anpassen. Zuletzt waren am 17. Dezember mit der zweistufigen Variante zwei neue Navigationssatelliten für das Galileo-Netzwerk gestartet worden. Der Start am Donnerstag ist jetzt der erste von insgesamt 18, die Amazon vor vier Jahren für sein Satelliteninternet gebucht hat, das damals noch Project Kuiper hieß.
Die ESA erklärt zudem, dass die Rakete für Start VA267 die bislang höchste Ariane 6 ist. Wenn sie zusammengebaut auf der Startrampe steht, wird sie demnach 62 m hoch sein. 20 m davon entfallen auf die Nutzlastverkleidung, die die 32 Internetsatelliten bis zum Erreichen des Weltraums schützen wird. Die hat einen Durchmesser von 5,4 m und könnte auch „vier aufeinanderstehende Giraffen“ befördern, wie die Weltraumagentur noch schreibt. Der Start von Europas Weltraumbahnhof in Kourou in Französisch-Guayana soll zwischen 17:45 und 18:13 Uhr MEZ am Donnerstag erfolgen; der Hersteller Arianespace plant einen Livestream auf YouTube.
(mho)
Künstliche Intelligenz
Mondmission Artemis-2: Zweitägiger Countdown soll in Nacht zu Dienstag starten
Der nächste geplante Starttermin für die erste bemannte Mondmission seit über einem halben Jahrhundert rückt näher. Jetzt hat die NASA öffentlich gemacht, wie der Countdown für Artemis-2 ablaufen soll. Los geht es demnach 49 Stunden und 50 Minuten vor dem geplanten Start mit der Ankunft der Teams am Arbeitsplatz. Zehn Minuten später soll der Countdown starten. Wenn bis dahin nichts mehr dazwischenkommt, würde das am Montag um 22:44 Uhr Mitteleuropäischer Sommerzeit (MESZ) passieren, denn das erste Startfenster öffnet sich um 00:24 MESZ am Donnerstag. Vor Ort in Florida ist das dann kurz vor Sonnenuntergang am Mittwochabend. Für den Start stehen 120 Minuten zur Verfügung. Sollte es da nicht klappen, gibt es an den folgenden Tagen jeweils immer etwas später weitere Startfenster.
Weiterlesen nach der Anzeige
Auftakt zu zahlreichen bemannten Mondflügen
Mit Artemis-2 will die NASA erstmals seit 1972 (Apollo 17) wieder Menschen zum Mond fliegen. Die sollen ihn umrunden, aber nicht dort landen. Geplant war der Start nach jahrelangen Verzögerungen eigentlich für den 6. Februar, doch es kam zu weiteren Verschiebungen. Die Crew der Mondkapsel besteht aus Reid Wiseman, Victor Glover und Christina Koch von der NASA sowie dem Kanadier Jeremy Hansen. Auf ihrem zehntägigen Flug sollen sie zuerst die Erde umrunden und dann in Richtung des Erdtrabanten beschleunigen. Für den Flug sind danach vier Tage veranschlagt, insgesamt soll die Mission etwas mehr als neun Tage dauern. Artemis-2 gilt als wichtiger Zwischenschritt auf dem Weg zu weiteren bemannten Mondmissionen. Dort will die US-Weltraumagentur dann sogar eine dauerhafte Basis errichten.
Wenn der fast 50-stündige Countdown am frühen Dienstagmorgen gestartet wird, müssen verschiedene Vorbereitungen beginnen. Besonders spannend wird es rund 11 Stunden vor dem geplanten Start, wenn die Mondrakete SLS (Space Launch System) betankt wird. Das wurde mehrfach getestet, jeweils gab es dabei Probleme. Wenn dieses Mal alles klappt, soll die Crew ihre Weltraumkapsel vier Stunden vor dem Start betreten und ihre Plätze einnehmen. Während all dieser Prozeduren kann der Countdown unterschiedlich lange pausiert werden, ohne dass er danach automatisch zurückgesetzt werden muss. Einzelheiten gibt es bei der NASA. Die wird das Geschehen live ins Internet streamen und jeweils erklären. heise online wird ebenfalls live berichten.
Sollte dieses Mal alles gut gehen und die Mondrakete zu ihrer historischen Mission starten, kann die danach live im Internet mitverfolgt werden. Die NASA hat dazu wieder ihre Internetseite AROW (Artemis Real-time Orbit Website) reaktiviert, die schon bei Artemis-1 zum Einsatz kam. Auf Basis von echten Telemetriedaten kann man sich da etwa anzeigen lassen, wo sich die Raumkapsel jeweils befindet. Hinzu kommen weitere Echtzeitdaten, etwa zur Missionsdauer, der gegenwärtigen Geschwindigkeit und der zurückgelegten Entfernung. Mobil lässt sich das auch in der NASA-App einsehen, ergänzt die US-Weltraumagentur. Tracking-Daten sollen auch live zum Abruf bereitstehen, damit soll man etwa eigene Anwendungen befüllen können.
(mho)
Künstliche Intelligenz
Sammelklage: Meta und Verbraucherzentralen prüfen Vergleich
Im Verfahren um eine Musterfeststellungsklage des Bundesverbands der Verbraucherzentralen gegen die Facebook-Muttergesellschaft Meta haben beide Seiten jetzt sechs Wochen Zeit zur Prüfung eines millionenschweren Vergleichs. Die Anwälte beider Parteien stimmten vor dem 11. Zivilsenat des Hanseatischen Oberlandesgericht in Hamburg einem entsprechenden Vorschlag des Vorsitzenden Richters zu.
Weiterlesen nach der Anzeige
Zuvor hatte er in Aussicht gestellt, das Verfahren auszusetzen, um im Rahmen eines Vorlagersuchens vom Europäischen Gerichtshof zunächst rechtliche Fragen klären zu lassen. Die Zuständigkeit der eigenen Kammer stellte der Vorsitzende Günter Wunsch – anders als beim Auftakt des Verfahrens im Oktober vergangenen Jahres – nicht mehr infrage. Auch Meta hatte die Zuständigkeit des Gerichts bestritten.
Hunderte Millionen Nutzer von Datenpanne betroffen
Hintergrund des Verfahrens ist eine Datenpanne bei Facebook, bei der zwischen Mai 2018 und September 2019 Daten von mehr als 530 Millionen Nutzern in die Hände von Kriminellen geraten waren. 2021 tauchten sie dann im Darknet auf. Der „Verbraucherzentrale Bundesverband“ (vzbv) wirft Meta in Irland unter anderem Verstöße gegen das Datenschutzrecht vor. Der Musterfeststellungsklage haben sich nach Angaben des Anwalts inzwischen 27.000 Menschen angeschlossen. Meta hatte zu Beginn des zweiten Verhandlungstages zunächst die Abweisung der Klage beantragt. Über einen Vergleichsvorschlag der Kammer können beiden Seiten nun in den kommenden sechs Wochen beraten.
Vergleich würde Meta Millionen Euro kosten
Dass von Betroffenen grundsätzlich Schadenersatzansprüche geltend gemacht werden könnten, habe der Bundesgerichtshof (BGH) bereits festgestellt, sagte Wunsch. Auch sei eine Verjährung durch die Klage bereits unterbrochen worden. „Was sie angestrebt haben, ist Verjährung. Die findet garantiert nicht statt“, sagte er zum Meta-Anwalt. Die Verbraucherzentralen fordern für die Betroffenen Beträge zwischen 100 und 600 Euro – je nachdem, wie viele Daten von ihnen entwendet wurden. „Wir hätten ihnen vorgeschlagen: 200 Euro“, sagte der Vorsitzende Richter. Davon könnten alle „schön abends essen gehen, schöne Flasche Wein dazu“.
Ausgehend von 27.000 Betroffenen, die sich nach Angaben der Verbraucherzentralen inzwischen in das Klageregister eingetragen haben, wären das für Meta 5,4 Millionen Euro. Ein Vergleich wäre für Meta auch insofern von Vorteil, da Betroffene ansonsten die Möglichkeit hätten, Schadenersatzklagen vor Amtsgerichten zu erheben. Und es könne nicht im Interesse des Tech-Konzerns liegen, „mit Tausenden Prozessen überzogen zu werden“. Außerdem stünde die zu erwartenden Prozesskosten in keinem Verhältnis zum Schaden, sagte Wunsch. Und an den Meta-Anwalt gewandt sagte er: „Ihre Mandanten könnten ja auch mal an ihr Image denken.“
Weiterlesen nach der Anzeige
(nie)
Künstliche Intelligenz
Sora ist tot und Kamerahersteller sind sich einig – die Fotonews der KW 13/26
Manchmal räumt die Tech-Branche schneller auf, als sie Chaos anrichten kann. OpenAI, das Unternehmen, das noch vor wenigen Monaten mit seinem KI-Videogenerator Sora die kreative Welt revolutionieren wollte, hat das Tool diese Woche kurzerhand eingestampft. Nicht leise, nicht schrittweise – sondern mit einem Social-Media-Post, der sich liest wie eine Abschiedsrede auf einer Betriebsfeier, bei der niemand wirklich traurig ist.
Weiterlesen nach der Anzeige
(Bild: heise )
Vom Wunderkind zur Nebenquest
Die Geschichte von Sora ist so kurz wie lehrreich. Im September kam Sora 2 mit großem Tamtam auf den Markt, im März ist Schluss. Nicht nur die App verschwindet, wie das Wall Street Journal berichtet – das gesamte Projekt wird beerdigt. CEO Sam Altman höchstpersönlich teilte seinen Mitarbeitern mit, dass OpenAI keine Produkte mehr unterstützen wird, die auf generativen Videomodellen basieren. Sogar die Videofunktion in ChatGPT steht auf der Streichliste.
Der Grund? OpenAI bereitet offenbar einen Börsengang vor und will sich auf das konzentrieren, womit sich tatsächlich Geld verdienen lässt: Produktivitäts- und Unternehmensanwendungen. Fidji Simo, die für Anwendungen zuständige Chefin, hatte schon letzte Woche gewarnt, man müsse aufhören, sich von „Side Quests“ ablenken zu lassen. Sora war offenbar genau das – eine Nebenmission, die mehr Ressourcen verschlang, als der Markt an Nachfrage hergab.
Besonders pikant: Disney hatte im Zuge einer Vereinbarung zugesagt, eine Milliarde Dollar in OpenAI zu investieren, inklusive Lizenzierung beliebter Disney-Figuren für generative KI-Apps. Mit dem Ende von Sora ist auch dieser Deal vom Tisch. Disney gab sich diplomatisch: man „respektiere die Entscheidung“, aber eine Milliarde Dollar respektiert man eben auch. Wir berichteten über Soras kreatives Potenzial, nun darf man sich fragen: War der Künstler Boris Eldagsen mit seinem experimentellen Sora-Video am Ende einer der wenigen, die dem Tool tatsächlich etwas Sinnvolles abgewinnen konnten?
c’t Fotografie Zoom In abonnieren
Ihr Newsletter mit exklusiven Foto-Tipps, spannenden News, Profi-Einblicken und Inspirationen – jeden Samstag neu.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Generative KI gehört nicht in eine Kamera
Weiterlesen nach der Anzeige
Während OpenAI also seine KI-Video-Ambitionen beerdigt, haben die großen Kamerahersteller auf der CP+ eine bemerkenswert einheitliche Position bezogen. Canon, Nikon, Sony, Fujifilm, OM System, Panasonic und Sigma sind sich in einer Frage, in der man kaum Einigkeit erwartet hätte, einig: Generative KI hat in einer Kamera nichts verloren.
Das ist, man muss es so sagen, möglicherweise das erste Mal in der Geschichte der Fotobranche, dass alle sieben großen Marken exakt dieselbe Meinung vertreten. Sigma-CEO Kazuto Yamaki bringt es auf den Punkt: „Fotografie dreht sich nicht nur um das Ergebnis, sondern um die Freude am Prozess.“ Wenn es nur ums Bild ginge, könnten KI-generierte Bilder Fotos ersetzen – aber genau das sei eben nicht der Fall.
Nikon betont den menschlichen Faktor der Kreativität und verweist auf die Risiken, die generative KI für das Konzept der Originalität birgt. Canon warnt vor Fälschungen und fordert bessere Authentizitätsnachweise. Fujifilm will klar unterscheiden können, ob ein Bild generiert oder fotografiert wurde. OM System sieht KI als Hilfsmittel – etwa bei Rauschreduzierung oder Bildkomposition –, aber nicht als Bilderzeuger. Panasonic betont, dass gerade bei Videoproduktionen das Motiv real sein müsse.
Wohlgemerkt: Niemand lehnt KI grundsätzlich ab. Autofokus-Erkennung, Motivverfolgung, Rauschreduzierung – all diese Prozesse profitieren von maschinellem Lernen, und die Hersteller nutzen es ausgiebig. Die rote Linie verläuft dort, wo aus Nichts etwas erzeugt wird, wo also nicht mehr fotografiert, sondern fabriziert wird. Dass ausgerechnet die Smartphone-Hersteller ihre Produktvorstellungen zunehmend um genau diese Fähigkeit herum inszenieren, quittieren die Kamera-Chefs mit einvernehmlichem Kopfschütteln.
Canon setzt auf KI – aber die richtige Art
Dass die Ablehnung generativer KI keineswegs Technikfeindlichkeit bedeutet, zeigt Canon in einem separaten Gespräch auf der CP+. Go Tokura, Executive Vice President und Chef der Imaging Group, sieht in Deep Learning und KI sogar den Motor für die nächsten großen Durchbrüche in der Kameratechnik.
Die Rede ist von KI-gestütztem Weißabgleich, der Motiverkennung nutzt, von KI-basierter Rauschreduzierung in der Software und von digitalen Objektivkorrekturen, die zusammen mit optischen Maßnahmen die Bildqualität verbessern. Besonders spannend: Canon sieht Potenzial, durch KI-basierte Bildverarbeitung die ewige Spannung zwischen hoher Auflösung und hoher Geschwindigkeit aufzulösen. Die EOS R1 bietet bereits ein KI-Upscaling im Body, und Canon deutet auch an, dass künftige Produkte beides vereinen könnten – viele Megapixel und hohe Serienbildraten.
„Software kann bis zu einem gewissen Grad helfen“, sagt Tokura. „Durch Deep-Learning-Technologie können wir diesen Bereich verbessern.“ Das klingt weniger nach Revolution als nach konsequenter Evolution – aber genau das ist es, was Fotografen von ihren Werkzeugen erwarten: besser werden, ohne die Grundidee zu verraten.
Braucht die Fotografie überhaupt noch Profis?
Weniger diplomatisch, dafür umso provokanter geht es in einem Essay auf Fstoppers zu. Der finnische Fotograf und Autor Alvin Greis stellt dort die Frage, ob Fotografie überhaupt noch als Beruf behandelt werden muss – und seine Antwort ist, vorsichtig formuliert, nicht das, was Berufsfotografen gerne hören.
Seine These: Professionelle Fotografie existierte historisch vor allem als eine Form der Risikokontrolle. Teure Ausrüstung, begrenztes Wissen, keine sofortige Rückmeldung – all das machte einen Profi nötig, nicht weil die Aufgaben so komplex waren, sondern weil es keinen anderen Weg zu einem brauchbaren Ergebnis gab. Die Eintrittsbarriere war höher als die tatsächliche Anforderung. Professionelle Fotografie, so Greis, habe „weit mehr Raum eingenommen, als die Aufgaben tatsächlich erforderten“.
Der Vergleich mit dem Schreibmaschinenberuf ist dabei ebenso treffend wie schmerzhaft: Tippen war einmal ein Beruf – nicht, weil Schreiben Spezialisten erforderte, sondern weil Fehler teuer und schwer rückgängig zu machen waren. Sobald Tastatur, Undo-Funktion und Textverarbeitung das Risiko eliminierten, verschwand der Beruf. Greis sieht die Fotografie auf einem ähnlichen Weg.
Natürlich hat die These ihre Grenzen, und die Kommentarspalte auf Fstoppers zeigt das deutlich. Hochzeitsfotografen weisen darauf hin, dass es bei einer Trauung keine zweite Chance gibt. Porträtfotografen betonen, dass Vertrauen und Menschenkenntnis keine App ersetzen kann. Ein pensionierter Porträtist aus Toronto berichtet, dass er mit Anfragen überhäuft wird, weil die Ergebnisse neuer Fotografen und KI schlicht „überverarbeitet“ seien.
Greis räumt ein, dass professionelle Fotografie dort weiter existiert, wo sie tatsächlich nötig ist – bei Hochzeiten, bei komplexen Produktionen, überall dort, wo Wiederholbarkeit und Zuverlässigkeit gefragt sind. Aber er besteht darauf: Das ist ein schmaler Bereich, nicht die breite Masse fotografischer Aufgaben.
Man muss dem Essay nicht unbedingt zustimmen, um ihn als Denkanstoß wertvoll zu finden. Denn die Frage, was einen Fotografen zum Profi macht, wenn die technischen Barrieren fallen, ist berechtigt – auch wenn die Antwort komplizierter ist, als es ein ökonomisches Modell nahelegt. Wer am Wochenende Lust auf eine kontroverse Lektüre hat: Der vollständige Essay auf Fstoppers lohnt sich, schon allein wegen der Kommentare.
Die Woche in einem Satz
OpenAI lernt, dass nicht jede KI ein Produkt braucht, die Kamerahersteller lernen, dass Einigkeit möglich ist, und die Fotobranche lernt – mal wieder –, dass die spannendsten Fragen nicht die nach der nächsten Kamera sind, sondern die nach dem Sinn des Ganzen. Also: Gehen Sie raus und fotografieren Sie. Mit einer echten Kamera. Die Pixel sind echt, die Emotionen auch – und das ist mehr, als jede KI von sich behaupten kann.
Lesen Sie auch
(tho)
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Künstliche Intelligenzvor 1 Monat
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 4 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
-
Apps & Mobile Entwicklungvor 3 MonatenX3D² bestätigt: Der AMD Ryzen 9 9950X3D2 mit doppeltem 3D V-Cache kommt!
