Connect with us

Künstliche Intelligenz

Wie Studierende KI an der Uni nutzen – und was Experten davon halten


Es ist 23 Uhr. Die Abgabefrist der Hausarbeit ist am nächsten Morgen. Im schlimmsten Fall bedeutet das eine mühselige Nachtschicht, um noch irgendwie zu bestehen. Für viel mehr ist keine Zeit.

Diese Erfahrungen machen einige Menschen während ihres Studiums. Doch vielleicht bekommen zukünftige Absolvent:innen mehr ruhige Nächte. Denn immer häufiger ist ChatGPT die Antwort auf die Forschungsfrage in der Hausarbeit. Ein nicht repräsentativer Forschungsbericht der Hochschule Darmstadt legt nahe, dass bereits 90 Prozent aller Studierenden in Deutschland KI-Tools für die Uni nutzen.

Einer von ihnen ist Alex (Name geändert). Er greift im Studium öfter auf ChatGPT zurück. Der 23-Jährige studiert Kindheitspädagogik in Hildesheim. „Ich habe mir tatsächlich auch schon unbenotete Arbeiten davon schreiben lassen“, erklärt er. Für ihn ist die generative KI eine Erleichterung. Die Universitäten stehen bei Studierenden wie Alex dagegen vor einer großen Aufgabe. Denn durch die großen Sprachmodelle verändert sich die Art, wie Wissen überprüft wird. Aber wie sollten Hochschulen damit umgehen?

Martin Wan beschäftigt sich mit Fragen wie diesen. Er ist Projektleiter für die Hochschulrektorenkonferenz (HRK) im Hochschulforum Digitalisierung (HFD). Das HFD unterstützt Hochschulen dabei, Fragen zum Einsatz von KI etwa im Studium und der Lehre zu meistern. Während es vereinzelte Stimmen gibt, die nach einem Verbot rufen, hält Wan solche Maßnahmen für falsch. „Die Technologie existiert nun mal. Dadurch ist ein reflektierter Umgang wichtig, der auch an Hochschulen eingeübt werden muss“, sagt er.

Dass es sich dabei um einen langwierigen Prozess handelt, zeigt sich anhand vieler Beispiele. Von einem reflektierten Umgang scheint man nämlich noch weit entfernt zu sein. Im Netz, etwa auf Reddit, berichtet ein Professor über die miserablen Prüfungsleistungen seiner Studierenden. Von zehn korrigierten Bachelorarbeiten seien vier durchgefallen. Alle Student:innen hätten entweder Quellen erfunden oder unpassende Quellen verwendet. Die Vermutung: Die KI hat bei der Literatur halluziniert und Inhalte erfunden. Es ist nicht die einzige Geschichte dieser Art. Das Magazin Rolling Stone berichtete etwa über einen texanischen Professor, der einen Großteil seines Kurses wegen der Verwendung von ChatGPT durchfallen lassen wollte.

In Deutschland gab es bislang nur in einem Fall ein rechtskräftiges Urteil. Die TU München lehnte einen Bewerber ab, der im Motivationsschreiben mutmaßlich KI eingesetzt haben soll. Das Verwaltungsgericht gab der Uni recht und der Bewerber wurde nicht zugelassen. Das Gericht traute den Professor:innen zu, KI-Arbeiten zu erkennen.

„Wenn Studierende die KI nicht kompetent beherrschen, dann kommt ein Bullshit-Bingo heraus“, sagt auch Bernhard Ertl, der an der Universität der Bundeswehr in München zum Lernen und Lehren mit Medien forscht. „Da weiß ich sofort: Diese Textstellen hat noch niemand zuvor gelesen, weil Teile davon einfach hanebüchen sind.“

Bei Maximilians Hausarbeiten wird wohl kein Bullshit-Bingo herauskommen. Der 24-Jährige studiert Data Science im Master an der TU Wien. Statt ChatGPT als Ghostwriter zu verwenden, nimmt er das Tool lieber als Startpunkt für seine Recherche. „Wenn ich am Anfang von einer Hausarbeit einen gewissen Überblick über den Themenbereich bekommen muss, dann eignet sich ChatGPT schon sehr gut“, erklärt er. „Ich kann quasi am Anfang, basierend auf der Forschungsfrage, direkt eine Idee bekommen, wie der aktuelle Stand der Wissenschaft da aussieht.“

Alex geht anders an die Aufgabe. Er recherchiere erst Literatur. „Dann lasse ich ChatGPT den Text so schreiben, dass meine Literatur dafür passt“, sagt er. Entdeckt er bei seiner Recherche Wörter, die er nicht versteht, lasse er sich diese von der KI erklären. Maximilian macht es ähnlich. „So kann ich komplexere Themen runterbrechen, falls ich mal wirklich nichts verstehe“, sagt der Wiener Student. „Oft kann ChatGPT das in eine verständlichere Sprache übersetzen.“

Bernhard Ertl hält den Ansatz für sinnvoll, ChatGPT als ergänzende Hilfe zu verwenden. „Die KI kann ein Werkzeug sein, mit dem die Studierenden zu besseren Ergebnissen kommen, wenn sie sich entsprechend in dieses Werkzeug reinarbeiten“, sagt er. Doch das ist nicht immer der Fall. „Dann wird es schlechter, weil sie einfach nur Prompts machen und was generiert wird, in die Arbeit einfügen, und das nicht verstehen“, ergänzt er.

Alex glaubt, dass es für die Dozierenden kaum erkennbar sei, ob er oder die KI die Hausarbeit geschrieben hat. „Ich muss auch sagen, ich hatte immer Angst, wenn meine Arbeiten durch Plagiatsprüfer überprüft werden. Aber auch da muss ich sagen: Es hat bis jetzt jedes Mal funktioniert“, erzählt er.

Plagiatsprüfer überprüfen, ob die Autor:innen ihren Text abgeschrieben haben. Dabei vergleichen sie die Arbeit mit einer Datenbank aus wissenschaftlichen Texten. Am Ende kommt dabei eine Prozentzahl raus, die bestimmt, wie viel der eingereichte Text denen aus der Datenbank ähnelt. Oft braucht es allerdings eine genaue Überprüfung, um herauszufinden, ob es sich um Ähnlichkeiten oder um wirkliche Plagiate handelt.

Wer beim Abschreiben erwischt wird, fällt durch. Das gilt auch, wenn die KI zufällig dieselben Wörter verwendet. Mittlerweile gibt es auch KI-Detektoren. Die sollen erkennen, ob Studierende bei ihrer Arbeit Texte mit einem KI-Chatbot geschrieben haben. Eine Studie der British University Vietnam und der James Cook University in Singapur zeigt: Oft sind diese Tools sehr ungenau. Einrichtungen wie die Uni Hannover verwenden deswegen Tools dieser Art nicht. In einer Stellungnahme der Universität zur Verwendung von KI-Detektoren heißt es, dass „die Ressourcen der Hochschulen besser in die Anpassung der Prüfungskultur und -formate gesteckt werden sollten“.

Wer das als Freifahrtschein für die KI-Nutzung sieht, sollte trotzdem auf die KI-Richtlinien der jeweiligen Universität achten. So muss man etwa an der Universität zu Köln kenntlich machen, ob und wie KI bei einer Hausarbeit verwendet wurde. Das bereits erwähnte Gerichtsurteil aus München greift die Universität auch auf. „Bei Täuschungshandlungen kann dabei der sogenannte Anscheinsbeweis geführt werden“, heißt es auf der Webseite. Sollten Prüfer:innen mögliche Anzeichen wie erfundene Quellen für eine unrechtmäßige KI-Nutzung feststellen, zählt das in Köln als Täuschung.

Eine Studie aus dem „International Journal of Educational Technology in Higher Education“ zeigt auch andere Beweggründe auf, ChatGPT in der Uni zu nutzen. Dabei decken die Forscher:innen auf, dass Studierende, die unter großem Druck stehen und einen hohen Workload haben, eher auf ChatGPT zurückgreifen. Besonders vorsichtige Studierende schrecken eher vor der Verwendung zurück – aus Angst vor Konsequenzen.

Wenn Studierende wie Alex Hausarbeiten mit ChatGPT schreiben, ist das für Wan ein Warnsignal. „Ist die Art und Weise, wie wir prüfen, sinnvoll? Fördern wir damit Kompetenzen?“, fragt er. Die Studie zeigt nämlich auch: Wer ChatGPT während des Studiums exzessiv nutzt, erzielt schlechtere Ergebnisse. Trotzdem oder vielleicht sogar deswegen sieht Wan in der KI eine Chance, eine moderne Prüfungskultur zu schaffen, die nicht stumpf Wissen abfragt und stattdessen die Anwendung in den Fokus stellt.

Einen offenen Umgang mit dem Thema gibt es laut Alex an seiner Hochschule nicht. „Ich habe da jetzt noch nicht wirklich viel mitbekommen“, erzählt er. Auf der Webseite der Universität finden sich hingegen viele Infos. Sogar einen kostenlosen Zugang zu ChatGPT 4o samt Handlungsempfehlungen für Studierende gibt es. Lehrende sind etwa angewiesen, Prüfungsaufgaben so zu stellen, dass eine KI nicht ausreicht, um sie zu beantworten.

Wan und Ertl sind sich einig: Es braucht die passenden Strukturen für KI. Dafür hat die Hochschulrektorenkonferenz auf über 40 Seiten sieben Handlungsempfehlungen verfasst. Darunter fällt zum Beispiel, dass es ein größeres Verständnis über das Thema benötigt oder Hochschulen Räume für einen interdisziplinären Austausch fördern sollten. „Vor allem empfehlen wir auch nochmal ganz klassische Kompetenzen wie Quellen- und Ideologiekritik einzuüben“, so Wan.

Studierende sollten sich bewusst sein, dass KI-Tools halluzinieren und nicht belegbare Dinge als Fakten darstellen können. „Und das geht bis zu einer Ideologiekritik der Anbieter“, führt Wan fort. Beim Verwenden von Deepseek sollte man im Hinterkopf haben, dass das Tool eher Antworten liefert, die der ideologischen Linie der chinesischen Regierung entsprechen.

Bernhard Ertl arbeitet gerade an einem Projekt, bei dem interkulturelle Trainings mit einem KI-Avatar erleichtert werden sollen. „Das funktioniert ganz gut, wenn es etwa ein Englisch-Training ist, damit die Leute Übung bekommen, in der Sprache zu reden“, erklärt der Professor. Avatare dieser Art sollen aber auch als Lernpartner funktionieren, „der die Leute beim Lernen unterstützt, Fragen beantwortet oder Sachen zusammenfasst.“

Für Studierende wäre das wohl ein Segen. Zumindest erzählen sowohl Alex als auch Maximilian, dass Künstliche Intelligenz ihren Uni-Alltag enorm erleichtert – entweder als Recherche-Hilfe, als Erklär-Tool, aber auch als Ghostwriter. Wer KI falsch in der Uni einsetzt, lernt nicht nur weniger, sondern läuft auch Gefahr, eine schlechte Prüfungsleistung abzugeben. Das Studium wird durch die Sprachmodelle also nicht komplett abgeschafft.

Hochschulen stehen nun vor der Aufgabe, KI so in die Studiengänge zu integrieren, dass Studierende bewusst damit umgehen können. Dafür müssen sie auch überarbeiten, wie sie gelerntes Wissen prüfen, damit nicht mal eben ganze Hausarbeiten gepromptet werden können. Ertl geht davon aus, dass KI den Status von Computern oder Internet-Tools einnehmen wird, die Studierende durch ihren Alltag begleiten. „Das ist ähnlich wie mit einem Hammer“, sagt er. „Ich muss den Hammer so bedienen, dass ich mir nicht auf die Finger haue und dann der Nagel so in der Wand ist, damit das Bild hängen bleibt.“

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Künstliche Intelligenz

Nedis Luftqualitätsmonitor: Günstiges CO₂-Messgerät mit Hygrometer im Test


Neben CO₂ erfasst der smarte Raumluftsensor von Nedis außerdem Temperatur und Luftfeuchte. Der Test zeigt, wie gut er in der Praxis funktioniert.

Nedis bietet mit dem Smart Life Luftqualitätsmonitor einen smarten Raumluftsensor mit einem 4 Zoll (10 cm) großen berührungsempfindlichen Bildschirm, der aktuelle Luftdaten wie CO₂, Temperatur und Luftfeuchte anzeigt. Das Gerät wird über die Tuya-App per WLAN gesteuert und kann auch in Home Assistant für Automatisierungen in Kombination mit anderen Geräten verwendet werden.

Mit einem Preis von aktuell rund 51 Euro gehört der Nedis Smart Life Luftqualitätsmonitor zu einem der günstigsten smarten CO₂-Melder am Markt. Doch sind die ermittelten Werte auch genau? Diese und andere Fragen beantwortet unser Testbericht.

Der Nedis Smart Life Luftqualitätsmonitor misst CO₂, Temperatur und Luftfeuchte. Leider zeigt das Display die Werte nicht gleichzeitig an. Im Batteriebetrieb ist der Bildschirm die meiste Zeit deaktiviert.

Funktionen, Lieferumfang & Design

Der Nedis Smart Life Luftqualitätsmonitor bietet ein schwarzes LED-Display mit abgerundeten Ecken und einem Durchmesser von 10 cm. Das weiße Gehäuse verjüngt sich nach hinten, sodass man die Tiefe von etwa drei Zentimetern kaum bemerkt. An den Seiten bietet es Lufteinlässe und hinten zwei Halterungsmöglichkeiten, mit denen man das Gerät mit den mitgelieferten Schrauben und Dübeln an einer Wand montieren kann. Alternativ kann daran auch ein im Lieferumfang befindlicher Ständer montiert werden, sodass man das CO₂-Messgerät mit Hygrometer auf eine ebene Fläche wie einem Regal stellen kann.

An der rechten Seite befindet sich im unteren Bereich eine USB-C-Buchse, über die das Gerät mit dem mitgelieferten Netzteil und Kabel mit Strom versorgt wird. Außerdem bietet es noch eine aufladbare Pufferbatterie, die aber nur eine Betriebszeit von 5 Stunden gewährleistet.

Die Anzeige von CO₂-Werten erfolgt über in weiß hintergrundbeleuchtete und 1,5 cm hohen Ziffern. Zusätzlich zur CO₂-Anzeige in ppm wird außerdem die aktuelle Uhrzeit dargestellt. Aufgrund der hintergrundbeleuchteten Ziffern sind die Daten gut ablesbar, obwohl das Display stark spiegelt. Die Luftqualität wird über einen 12 mm breiten farbigen LED-Streifen im oberen Display-Bereich signalisiert. Liegt die CO₂-Konzentration zwischen 400 und 1000 ppm, leuchtet dieser in Grün, zwischen 1000 und 2000 ppm in Gelb, darüber in Rot. Wird letzterer Grenzwert überschritten, ertönt für etwa 30 Sekunden ein sich wiederholender, lauter Piepton. Die Alarmfunktion kann man über das Lautsprechersymbol deaktivieren.

Wie häufig aktualisiert der Nedis Smart Life Luftqualitätsmonitor die Sensorwerte und wie genau sind diese?

Die Sensoren reagieren nach wenigen Sekunden auf veränderte Luftwerte, egal ob das Gerät mit Batterien oder per USB-Ladegerät mit Energie versorgt wird. Im Batteriebetrieb schaltet sich allerdings der Bildschirm nach wenigen Sekunden aus. Steigt die CO₂-Konzentration über 2000 ppm, schaltet er sich automatisch ein. Ansonsten bleibt er ausgeschaltet, kann aber manuell über das Einschaltsymbol am unteren Display-Rand aktiviert werden.

Der Nedis Smart Life liefert ähnlich exakte Werte wie der Switchbot Meter Pro CO₂.

Konfiguration des Nedis Smart Life Luftqualitätsmonitor

Der Nedis Smart Life Luftqualitätsmonitor kann über WLAN mit der App Nedis Smart Life oder auch mit der Tuya-App gesteuert werden. Standardmäßig informiert die App, wenn die CO₂-Konzentration über 2000 ppm steigt. Über die Option Szene können Anwender Automatisierungen erstellen und eigene Grenzwerte für eine Benachrichtigung definieren. Automatisierungen in Kombination mit anderen Tuya-Geräten sind ebenfalls möglich, um etwa eine Tuya-kompatible Lampe oder einen Luftentfeuchter einzuschalten, wenn ein bestimmter Grenzwert überschritten wird.

Wie gut ist die Smart-Home-Anbindung?

Der Nedis Smart Life Luftqualitätsmonitor ist standardmäßig kompatibel zu der Tuya-App. Die Tuya-Plattform bietet Unterstützung für Tausende Geräte. Eine Anbindung über die Tuya-Cloud in andere Smart-Home-Systeme (Bestenliste) wie Homey Pro (Testbericht) oder Home Assistant (Testbericht) ist ebenfalls möglich. Somit ist man nicht auf die Tuya-App begrenzt, sondern kann den Nedis Smart Life Luftqualitätsmonitor für Automatisierungen mit nicht zur Tuya-Welt kompatiblen Geräten verwenden.

Preis

Regulär kostet der Nedis Smart Life Luftqualitätsmonitor (WFISA20CBK) 83 Euro. Aktuell ist das Gerät aber bereits für rund 51 Euro im Angebot.

Fazit

Wer einen dezenten Hinweis fürs rechtzeitige Lüften erhalten möchte, um ein produktives und gesundes Raumklima zu gewährleisten oder die Schimmelgefahr im Auge behalten will, benötigt ein Hygrometer mit CO₂-Sensor. Genau das bietet der Nedis Smart Life Luftqualitätsmonitor für günstige 51 Euro.

Leider zeigt sein leicht ablesbarer Bildschirm die CO₂-Konzentration alleine an, zur Anzeige von Temperatur und Luftfeuchte muss man die Anzeige manuell umschalten. Wer alle drei Werte auf einen Blick sehen möchte, muss zu einem anderen Raumluftsensor greifen, etwa dem Switchbot Meter Pro CO₂ (Testbericht), der wie der Nedis Smart Life Luftqualitätsmonitor mit einem Preis von aktuell 66 Euro ähnlich günstig ist. Manchmal ist der Switchbot sogar für unter 50 Euro im Angebot.

In puncto Smart-Home-Anbindung steht der Nedis dem Switchbot hingegen in nichts nach. Beide Lösungen sind eine gute Wahl, wenn Automatisierungen in einem Smart Home gewünscht sind und man etwa das Raumklima in Verbindung mit anderen smarten Geräten wie Luftbe- und enfeuchter automatisieren möchte. Auch was die Messgenauigkeit anbelangt, weiß der Nedis Smart Life Luftqualitätsmonitor zu überzeugen und unterscheidet sich praktisch nicht von anderen präzisen CO₂-Messgeräten wie dem Switchbot Meter Pro CO₂ (Testbericht) oder dem Awair Element (Testbericht).



Source link

Weiterlesen

Künstliche Intelligenz

Sam Altman besorgt: Menschen könnten Leben nach KI-Empfehlungen ausrichten


Der Chef des ChatGPT-Entwicklers OpenAI, Sam Altman, ist besorgt, dass Menschen ihr Leben komplett nach Empfehlungen von KI-Software gestalten könnten. „Mir scheint, etwas Wichtiges geht dabei verloren, selbst wenn die Ratschläge immer richtig gut wären“, sagte der Tech-Unternehmer im US-Sender CNBC. Noch sei Künstliche Intelligenz allerdings nicht so weit, wirklich gute Empfehlungen zu geben, schränkte er ein.

Aber: „Wir werden ChatGPT trotzdem fragen, was wir tun sollen“, und welche Ziele man erreichen wolle, sagte Atman. Die Menschen müssten dann aber immer noch entscheiden, ob sie den Empfehlungen folgen. Er denke nicht, dass man in Zukunft das Gefühl haben werde, dass man den Freiraum für selbstbestimmtes Handeln verloren habe.

Mögliche emotionale Auswirkungen von ChatGPT-Nutzung haben OpenAI und das Massachusetts Institute of Technology schon in der Vergangenheit untersucht. Die Autoren äußerten in der Studie die Sorge vor Manipulation und psychischen Störungen, was vor allem bei Menschen auftreten könne, die bereits entsprechende Veranlagungen mitbringen und die Chatbots sehr stark nutzen.

OpenAI brachte am Donnerstag die nächste Generation seiner KI-Software heraus. GPT-5 soll schneller und mit weniger Fehlern laufen. Bei der Präsentation hob Altman die Fähigkeit des Modells hervor, Gesundheitsdaten auszuwerten: „Menschen nutzen ChatGPT für Gesundheitsfragen – von einfachen Ratschlägen für den Alltag bis hin zur lebensrettenden Diagnose.“ Im Anschluss sprach er mit einer Krebspatientin darüber, die sich von ChatGPT den medizinischen Fachjargon ihrer Biopsieergebnisse in Laiensprache hatte übersetzen lassen, um mit dem behandelnden Arzt darüber zu sprechen. ChatGPT habe ihr geholfen, „kritische Gesundheitsentscheidungen“ im Kampf gegen den Krebs zu treffen. So habe ihr der Chatbot etwa den Ausschlag geliefert, sich für Bestrahlungstherapie zu entscheiden, während die Ärzte das nicht für eindeutig geboten hielten.

Einen besonderen Fokus legt OpenAI außerdem darauf, dass die neue Generation gut darin sei, Software zu programmieren. Der Vorgänger GPT-4 habe ferner auf dem Niveau eines Hochschul-Studenten kommuniziert – GPT-5 sei dagegen wie ein „Experte für jedes Thema mit einem Doktortitel“, sagte Altman bei der Vorstellung der neuen Version. Der KI-Chatbot ChatGPT läuft auch für Gratis-Nutzer mit GPT-5.

Mit der Veröffentlichung von ChatGPT Ende 2022 begann der Hype rund um Künstliche Intelligenz. OpenAI zufolge zählt ChatGPT derzeit fast 700 Millionen wöchentliche Nutzer. Neben OpenAI sind auch Unternehmen wie Anthropic, Elon Musks xAI sowie die Tech-Schwergewichte Google und Meta im Wettlauf um die Führungsposition in der KI-Zukunft.

Altman sagte bei CNBC, dass OpenAI schneller als ursprünglich gedacht Gewinne erwirtschaften könnte, wenn man die Ausgaben drosseln würde. Aus seiner Sicht sei es aber das Richtige, weiter in Rechenleistung zu investieren und zu wachsen. Die Firma will gemeinsam mit Partnern mehrere hundert Milliarden Dollar in Rechenzentren für Künstliche Intelligenz stecken.


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

Die Stimme von „Houston, we´ve had a problem“ ist verstummt


Bereits am vergangenen Donnerstag verstarb der Astronaut James A. Lovell in Lake Forest im US-Bundesstaat Illinois. Die NASA informierte die Öffentlichkeit am heutigen Samstag vom Tode des Kommandanten der Mission Apollo 13, die 1970 als, so die US-Raumfahrtbehörde, „erfolgreicher Fehlschlag“ in die Geschichte einging.

Schon auf dem Flug zum Mond gab es einen Brand in einem Sauerstofftank, auch andere Systeme wurden beeinträchtigt. Die dreiköpfige Besatzung aus Jim Lovell, John Swigert und Fred Haise umrundete den Mond ohne zu landen, und musste unter widrigsten Bedingungen vier Tage ausharren, bis sie am 17. April 1970 im Pazifik wassern konnte. Die NASA erklärte die Mission trotz gescheiterter Mondlandung als erfolgreich, weil sie die Astronauten retten konnte. Jim Lovell als Kommandant kam dabei entscheidende Bedeutung zu, ebenso wie das Personal am Boden wurden die Beteiligten zu Nationalhelden.

Bis es so weit kam, musste Lovell jedoch lange auf seine Chance warten, den Mond zu betreten. Nach Studienabschlüssen in Maschinenbau und Ingenieurswesen wurde er, wie viele der ersten US-Raumfahrer, Testpilot bei der Marine. Seinem NASA-Profil zufolge (PDF) kam er auf über 7000 Flugstunden und führte auch ein Programm für das Kampfflugzeug F-4 Phantom (F4H). Später war er Sicherheitsingenieur eines Geschwaders – Flugsicherheit lag Lovell offenbar im Blut.

Als er sich 1961 bei der NASA bewarb, wurde er jedoch abgelehnt. 1962 versuchte er es wieder und schaffte es ins Gemini-Programm, der Vorstufe der Mondmissionen. Schon bei seinem ersten Flug mit Gemini stellte er im Jahr 1965 mit 330 Stunden einen Rekord für den bis dahin längsten Aufenthalt im Weltraum auf. Ein Jahr später startete Lovell als Kommandant von Gemini 12 zum letzten Flug des Programms. Sein Copilot war dabei Buzz Aldrin, der 1969 mit Apollo 11 nach Neil Armstrong als zweiter Mensch den Mond betreten sollte.

Beim ersten Flug der Rakete Saturn V zum Mond, noch ohne Landefähre, war Jim Lovell dann auch dabei: Mit der Mission Apollo 8 umrundete er zusammen mit Kommandant Frank Borman und William Anders im Dezember 1968 den Erdtrabanten. Danach wurde der nun sehr erfahrene Astronaut aber nur als Ersatz für den Kommandanten von Apollo 11 eingeteilt. Der war Neil Armstrong, wäre dieser ausgefallen, hätte Lovell als erster Mensch den Mond betreten können. Da das nicht geschah, musste er noch fast ein Jahr auf seinen nächsten Raumflug warten: Apollo 13.

1973 schied Lovell bei NASA und Marine aus, und begann eine Karriere in der Wirtschaft, wo er es 1977 beim Bau- und Infrastrukturanbieter Fisk zum Präsidenten des Geschäfts mit Telefonnetzen schaffte. 1994 schrieb er zusammen mit dem Journalisten Jeffrey Kluger das Buch „Lost Moon“ auf dem der Film „Apollo 13“ von 1995 basiert. Darin spielt Tom Hanks die Rolle von Jim Lovell. Der Streifen wurde mit zwei Oscars für besten Schnitt und Ton ausgezeichnet.

Durch diesen Film wurde auch die falsche Wiedergabe von Jim Lovells berühmtesten Zitat zu einem geflügelten Wort. Tom Hanks´ „Houston, we have a problem“ gilt seitdem immer als Ansage, dass man vor einer sehr ernsten Situation steht. Tatsächlich sagte zuerst laut Aufzeichnungen des Funkverkehrs John Swigert „Okay, Houston, we´ve had a problem here“. Diese Mitteilung war jedoch von Störungen überlagert, sodass die Bodenstation um eine Wiederholung des Funkspruchs bat. Die kam dann von Jim Lovell als „Houston, we´ve had a problem.“

Jim Lovell hinterlässt laut US-Medienberichten vier Kinder und zahlreiche Enkel und Urenkel. Seine Frau, Marylin Lovell, war bereits 2023 verstorben. Die beiden hatten sich schon in der Highschool kennengelernt und waren seit 1952 verheiratet.

Lesen Sie auch


(nie)



Source link

Weiterlesen

Beliebt