Connect with us

Künstliche Intelligenz

Vera-C.-Rubin-Observatorium: Wie das Teleskop in Chile funktioniert


Stellen Sie sich vor, Sie könnten ein Foto von allem machen, was über Ihrem Kopf am Himmel steht. Auf dem Bild erkennen Sie jedoch nicht nur schwache Lichtpunkte auf schwarzem Grund, sondern Sie können bis auf feinste Details heranzoomen: Sie erkennen Kometen und Sterne, farbenfrohe Nebel und Galaxien. Selbst das Unsichtbare können Sie darauf erkennen: Dunkle Energie und Dunkle Materie. Genau das plant das Vera-C.-Rubin-Observatorium, jede Nacht für die nächsten zehn Jahre.

Das Rubin-Observatorium steht in Chile und wird finanziert von der US-amerikanischen National Science Foundation (NSF) und dem Energieministerium (United States Department of Energy, DOE). Rubins Kernstücke sind das Teleskop und die Kamera. Die Kamera mit 3200 Megapixeln ist so groß wie ein Kleinwagen und wiegt mit 2,8 Tonnen etwa doppelt so viel. Es ist die größte Digitalkamera der Welt.

  • Das Vera-C.-Rubin-Observatorium steht auf dem Berg Cerro Pachón in Chile. Finanziert wird es von der US-amerikanischen National Science Foundation und dem Energieministerium der Vereinigten Staaten.
  • Rubins Herzstück, das Simonyi Survey Telescope, wird in den kommenden zehn Jahren jeden Punkt am südlichen Himmel insgesamt etwa 800-mal abtasten und so hochauflösende Zeitrafferaufnahmen des Universums anfertigen.
  • Mit dem Rubin-Observatorium verfolgen Forscher diverse wissenschaftliche Ziele. Sie wollen etwa Dunkle Energie und Dunkle Materie ergründen, Bewegungen am Nachthimmel detektieren und die Milchstraße erforschen.

In den kommenden zehn Jahren wird Rubin den südlichen Himmel Nacht für Nacht abtasten und dabei jeden einzelnen Punkt insgesamt etwa 800-mal fotografieren. Gemeinsam ergeben die Bilder den größten astronomischen Film aller Zeiten. Mithilfe dieser gigantischen Datenmengen wollen Wissenschaftler auf der ganzen Welt das bekannte und unbekannte Universum erforschen: Sie wollen Dunkle Energie und Dunkle Materie finden, das Sonnensystem und die Milchstraße kartografieren, kosmische Ereignisse filmen – und Fragen beantworten, von denen sie heute noch gar nicht wissen, dass sie sie stellen sollten.


Das war die Leseprobe unseres heise-Plus-Artikels „Vera-C.-Rubin-Observatorium: Wie das Teleskop in Chile funktioniert“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Künstliche Intelligenz

KI mit Schuldgefühlen kooperativer machen?


Schuld und Scham erweisen sich in Gesellschaften als wirksames Mittel, um dafür zu sorgen, dass Individuen Teamplayer bleiben. Diese emotionalen Fähigkeiten lassen Menschen Handlungen bereuen und machen sie kooperativer. In einer im Journal of the Royal Society Interface veröffentlichten Studie haben Forschende jetzt getestet, ob sich derselbe Ansatz auch auf Künstliche Intelligenz (KI) übertragen ließe. Dabei haben sie festgestellt, dass dies unter den richtigen Umständen möglich sein könnte.

KI wird zunehmend leistungsfähiger – gleichzeitig ist deren Verwendung aus dem Leben vieler Menschen nicht mehr wegzudenken. Eine Kernherausforderung liegt dabei darin, KI-Systeme dazu zu bringen, sich gemäß menschlicher Präferenzen und ethischer Normen zu verhalten. Dass sich auch Menschen untereinander nicht unbedingt einig über diese Dinge sind, macht es nicht leichter.

Es gibt bereits erste Forschungsgruppen, die sich der Maschinen-Psychologie widmen und die Fähigkeiten und das Verhalten von Algorithmen untersuchen. Jetzt deuten neue Ergebnisse aus der Spieltheorie darauf hin, dass Modelle kooperativer werden, wenn man ihnen Schuldgefühle vermittelt.

Die Tests wurden mit einfachen Software-Agenten (ohne KI) durchgeführt, die eine Version eines klassischen spieltheoretischen Tests namens „Gefangenendilemma“ spielen mussten: ein Szenario, in dem Zusammenarbeit für alle Beteiligten den größten Vorteil bringt, während individuelles „Verraten“ kurzfristig lohnender erscheint.

In jeder Runde müssen die Spieler entscheiden, ob sie zusammenarbeiten oder den anderen verraten. Kooperieren beide, bekommen sie jeweils eine Belohnung. Entscheiden sich jedoch beide dagegen, also handeln egoistisch, erhalten sie beide eine Strafe. Wenn aber nur einer kooperiert und der andere egoistisch handelt, profitiert Letzterer besonders stark. Der kooperative Spieler erhält hingegen die größte Strafe.

Außerdem modellierten die Forschenden zwei Arten von Schuld: soziale und nicht-soziale Schuld. Im ersten Fall fühlten sich die Agenten dann schuldig, wenn sie wussten, dass sich ihr Gegner ebenfalls schuldig fühlen würde. Im zweiten Fall fühlten sie sich unabhängig vom Gegner schuldig.

Um den Agenten ein Schuldgefühl zu vermitteln, haben die Forschenden sie mit einem Zähler für unkooperative Handlungen ausgestattet. Überschritt der Zähler den definierten Schwellenwert, reagierten die Agenten, indem sie einen Teil ihrer Punkte aufgaben. Das führte letztlich wieder zu mehr Kooperation.

Während des Spiels sind Gruppen von Agenten mit leicht unterschiedlich programmierten Schuld-Strategien wiederholt gegeneinander angetreten. Das Ergebnis: Empfundene soziale Schuld erwies sich als besonders wirksam, um die Kooperation der Agenten zu fördern.

„Der Bau ethischer Maschinen könnte ihnen die emotionale Fähigkeit verleihen, sich selbst zu bewerten und ihre Handlungen zu bereuen“, schreiben die Autorinnen und Autoren des Papers. Wenn KI-Agenten also mit der Fähigkeit, Schuld zu fühlen, ausgestattet werden, könnten sie sich Fehlverhalten eingestehen und sogar Maßnahmen zur „Wiedergutmachung“ ergreifen – so zumindest wird das im Paper nahegelegt.

Es ist jedoch fraglich, inwiefern sich diese vereinfachten Simulationen mit Software-Agenten auf die deutlich komplexeren, auf großen Sprachmodellen basierenden KI-Agenten übertragen lassen. Demnach ist unklar, ob sich das Verhalten von KI-Systemen auf ähnliche Weise beeinflussen ließe. Dennoch liefern die Ergebnisse spannende Hinweise darauf, wie die Ausstattung von KI-Agenten mit Emotionen dazu beitragen könnte, ihre Entscheidungsfindung zu moderieren und zu lenken.

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Weiterlesen

Künstliche Intelligenz

Perplexity kann jetzt auch Videos: Beta-Funktion über Browser verfügbar


Ein kurzer Text-Prompt, eine gute Minute Wartezeit, fertig ist das achtsekündige Video: Perplexity-Nutzer mit Pro- und Max-Abos haben nun Zugriff auf eine Video-Generierung als Beta-Version. Wir konnten sie mit einer Pro-Lizenz kurz ausprobieren, bevor uns der Dienst zum Upgrade aufgefordert hat.

Offenbar handelt es sich bei der Video-Generierung um den Rollout einer Funktion, die Nutzer seit Juni 2025 auf dem Kurznachrichtendienst X nutzen können (aktuelles Beispiel auf X).

Zum Test-Zeitpunkt am Mittwochmorgen war die Funktion unter perplexity.com nicht über die Bedienoberfläche anwählbar. Stattdessen reagiert der Dienst im Browser direkt auf eine Prompt-Eingabe. In unserem Beispiel: „Erstelle ein Video eines Androiden auf der Flucht, der versucht, sich in einem Innenhof zu verstecken.“



Perplexity schmückt den kurzen Prompt des Nutzers in eine detalliertere Szenenbeschreibung aus und generiert anschließend das Video.

(Bild: Screenshot)

Die KI-Suchmaschine meldet sich mit der Information „Generieren“ zurück und zeigt einen längeren automatisch generierten Prompt an, der die angeforderte Szene ausschmückt. Im Beispiel ist das:

An android on the run is hurriedly trying to hide in a dimly lit old courtyard surrounded by tall buildings. The android, with a sleek metallic body and glowing blue eyes, darts between shadows and behind various objects like trash bins and crates. It's dusk, with soft orange and purple hues in the sky. The courtyard is cramped and cluttered with some plants, cracked walls, and flickering overhead lights. The camera follows the android closely from a cinematic perspective, showing the tension and urgency. Audio includes the android's mechanical footsteps, the faint echo of distant sirens, and anxious breathing sounds. Background music is suspenseful and tense.

Als Ergebnis erstellt die KI eine achtsekündige Szene. Im oberen linken Rand des Videos ist „Beta“ zu lesen, offenbar ein Hinweis, dass es sich um eine Funktion im Beta-Teststadium handelt. So sieht das generierte Ergebnis aus:

Im Test konnten wir zwei Videos erstellen, die als als MP4-Dateien herunterladbar sind. Sie haben stets eine Länge von acht Sekunden und eine Auflösung von 1280 mal 720 Pixel. Ihre Bildrate liegt bei 24 Bildern pro Sekunde.

Leider war nach zwei erfolgreich generierten Szenen bereits Schluss für unseren Pro-Account. Der Dienst meldete, dass wir das monatliche Limit für Video-Generierung erreicht hätten. Ein Upgrade auf ein Max-Abo würde zusätzliche Videos und eine höhere Modellqualität ermöglichen. Für das Max-Abo berechnet das Unternehmen allerdings monatlich 200 US-Dollar. Da sind Video-KIs anderer Anbieter mitunter deutlich günstiger zu haben.

Testern ohne Bezahl-Account steht der Dienst nicht zur Verfügung. Beim Test ohne Anmeldung empfahl Perplexity uns lediglich, Abonnent zu werden: „Melden Sie sich an, um Videos zu erstellen. Exklusiver Zugang zur Videogenerierung für Abonnenten“.

Auch auf Reddit diskutieren Nutzer die Video-Funktion bereits. Hier konnten jedoch nicht alle Nutzer bestätigen, dass sie Zugriff auf die Funktion haben.


(dgi)



Source link

Weiterlesen

Künstliche Intelligenz

Fast ein Lexikon: Apple-Experte über 50 Jahre Produkte aus Cupertino


Wer sich in den vergangenen Jahrzehnten mit dem Thema Apple auseinandergesetzt hat, wird regelmäßig auf Werke von David Pogue gestoßen sein: Der 1963 geborene Technikjournalist, der unter anderem für die New York Times arbeitete und heute Korrespondent für die CBS-Sendung „Sunday Morning“ ist, schreibt und sendet viel über Mac, iPhone oder iPad. Bekannt ist er unter anderem durch die einst höchst beliebte „Missing Manual“-Buchserie, die viele Apple-Neulinge in die Produkte aus Cupertino eingeführt haben dürfte. Nun hat Pogue ein neues Großprojekt vor: Zum 50. Geburtstag Apples im kommenden Frühjahr bringt er ein Großwerk zu (fast) allen Produkten des Konzerns heraus. Es nennt sich „Apple – The First 50 Years“ und soll 600 Seiten umfassen.

Erscheinungstermin für die englische Ausgabe ist der 17. März, der Verlag wird Simon & Schuster sein. Pogue zufolge hat er insgesamt zwei Jahre an dem Werk gearbeitet. Er habe 150 Interviews geführt, „inklusive aktueller Apple-Führungskräfte“. Eine genaue Liste derer, die vorkommen, wurde allerdings noch nicht publiziert. Pogue selbst nennt Ex-Designchef Jony Ive, Apple-Mitbegründer Steve Wozniak und Ex-CEO (und Steve-Jobs-Gegenspieler) John Sculley. Alle Interviewpartner sollen „legendäre Figuren“ sein, „die Apple zu dem gemacht haben, was es heute ist“.

Auf den 600 Seiten sind 360 Farbfotos enthalten. Pogue zufolge konnte er auch „neue Fakten, die bisherige Annahmen korrigieren“ zusammentragen und Apples „subversive Kultur ausleuchten“. Pogue zufolge geht es um die „gigantischen Erfolge“ des Konzerns wie das iPhone ebenso wie die Reinfälle – darunter MobileMe, die Lisa oder den Apple III. Pogue hat auch vor, eine Tour für sein Buch zu veranstalten – ob er dabei auch nach Europa kommt, ist noch unklar.

Pogue erzählt seinen Angaben zufolge unter anderem, dass Apple nicht in einer Garage gegründet worden sei, Steve Jobs und Wozniak drei Unternehmen vor Apple hatten, Jobs erst sehr spät Apple-Chef wurde und der Newton Apple „gerettet“ habe. Außerdem habe Jobs nie jemanden nach einem ersten Treffen im Fahrstuhl gefeuert, er sei nicht von Sculley (direkt) herausgeworfen worden und er habe auch nicht die berühmte „Think Different“-Kampagne verfasst.

Allgemein bekanntere Informationen wie jene zum dritten Apple-Gründer Ronald Wayne oder der Tatsache, dass Jobs den Macintosh nicht erfunden hat (sondern Jef Raskin), werden ebenfalls beleuchtet – ebenso wie die Tatsache, dass es vor dem iPhone bereits ein internes Apple-Tablet gab. „Apple – The First 50 Years“ kann bereits vorbestellt werden, es kostet allerdings happige 50 US-Dollar.


(bsc)



Source link

Weiterlesen

Beliebt