Connect with us

Künstliche Intelligenz

CPU-Wegweiser 2025: So finden Sie den passenden Desktopprozessor für Ihre Zwecke


Seit Sommer 2024 geht es bei Desktop-Prozessoren Schlag auf Schlag. AMD brachte im August vergangenen Jahres mit den Ryzen 9000 „Granite Ridge“ die zweite Ryzen-Generation für die Plattform AM5 mit Zen-5-Rechenwerken und verbesserter Fertigung heraus. Anschließend folgten bis zum Frühjahr die für Gamer interessanten X3D-Varianten mit Riesen-Cache. Zudem aktualisierte der Chiphersteller seine Chipsätze und schrieb bei den teureren Mainboards USB4 vor.

Intel setzte im Herbst 2024 mit Core Ultra 200S „Arrow Lake“ zum Konter an. Die Prozessoren tragen nicht nur ein anderes Namensschema als bisher, sondern unterscheiden sich durch Chiplet-Aufbau, Fremdfertigung, stärkere Kerne, integriertes Thunderbolt 4 und die Fassung LGA1851 von den Vorgängern der Core-i-Serie. Für preiswerte Systeme bieten die Hersteller weiterhin CPUs der älteren Plattformen AM4 und LGA1700 an, sodass rund 300 verschiedene Modelle bei den Händlern liegen. Hinzu kommen noch aufgelötete Prozessoren für Mini-PCs wie Core- und Ryzen-Mobil-CPUs sowie Apples M4-Serie und neuerdings Qualcomm Snapdragon X hinzu.

Wie Sie angesichts dieser Fülle den Überblick behalten und den optimalen Prozessor für Ihren Einsatzzweck finden, erklären wir in diesem CPU-Ratgeber. Neben der Übersicht der aktuellen Plattformen und deren Eigenschaften gehen wir auf besondere Funktionen, aber auch Einschränkungen der jeweiligen Serie ein. Vergleichswerte für Performance und Effizienz finden Sie in einem separaten Artikel, in dem wir über 50 Prozessoren der vergangenen acht Jahre ins c’t-Labor geholt haben.


Das war die Leseprobe unseres heise-Plus-Artikels „CPU-Wegweiser 2025: So finden Sie den passenden Desktopprozessor für Ihre Zwecke“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Künstliche Intelligenz

KI-Update: Neue OpenAI-Modelle, KI am Schachbrett, AI-Slop, Genie 3, KI-Hasen


OpenAI, ein KI-Modellhersteller, hat zwei neue Open-Weight-Reasoning-Modelle veröffentlicht: „gpt-oss-120B“ und „gpt-oss-20B“. Diese Modelle können transparent eingesehen und für eigene Aufgaben optimiert werden, ohne dass die ursprünglichen Trainingsdaten nötig sind. Das größere Modell erreicht die Leistung von OpenAIs o4-mini, soll sich aber mit 80 GByte Speicher begnügen. Das kleinere Modell funktioniert bereits auf 16-GByte-Geräten.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

OpenAI hatte solche offenen Modelle seit März angekündigt, die Veröffentlichung aber im Juli aus Sicherheitsgründen verschoben. Das Unternehmen entwickelte ein „Worst-Case-Fine-Tuning“-Protokoll, das böswillige Nutzung simuliert und Missbrauch für Waffenbau oder Cyberattacken verhindern soll. OpenAI-Chef Sam Altman nutzte die Veröffentlichung für eine politische Botschaft: Die Welt könne „auf einem offenen KI-Stack aufbauen – entwickelt in den USA, geprägt von demokratischen Werten“. Das zielt auf chinesische Open-Weight-Modelle ab, die Fragen im Sinne der chinesischen Regierung beantworten.

Der Suchmaschinen-Konzern Google und Kaggle, eine Datenplattform, haben die „Game Arena“ gestartet – eine neue Art des KI-Wettkampfs. Statt trockener Benchmarks messen sich die Modelle in strategischen Spielen. Acht Spitzenmodelle traten zum Auftakt im Schach gegeneinander an: Googles Gemini 2.5 Pro, OpenAIs o3 und o4 mini, xAIs Grok 4, Anthropics Claude Opus 4, DeepSeeks R1 sowie Kimi K2 Instruct.

Das Problem klassischer Tests: Viele Modelle erreichen bereits Bestwerte, echte Unterscheidung wird schwierig. Spiele wie Schach bieten klare Siegbedingungen und fordern strategisches Denken. Die ersten Ergebnisse zeigen OpenAIs o4 mini an der Spitze, gefolgt von Googles Gemini 2.5 Pro, OpenAIs o3 und xAIs Grok 4. Anthropics Claude Opus 4 konnte noch keinen Sieg verbuchen. Google plant, die Plattform um neue Spiele und Modelle zu erweitern.

Wikipedia nutzt eine neue Schnelllöschregel gegen minderwertige KI-Artikel. Bisher brauchte das Löschen eines Artikels eine einwöchige Diskussion. Bei eindeutig erkennbaren KI-Texten – etwa durch typische Formulierungen oder falsche Quellen – können Administratoren nun sofort löschen.

Ziel ist es, die Qualität von Wikipedia zu schützen und ehrenamtliche Mitarbeiter zu entlasten. Diese wären sonst durch die Flut ungeprüfter KI-Beiträge überfordert. Die Regel setzt auch ein Signal gegen Falschinformationen in der Online-Enzyklopädie.

Forscher des Versicherungskonzerns Axa haben einen einfachen Tipp für weniger Energieverbrauch bei KI-Chatbots: Nutzer sollten einen neuen Chat starten, sobald das Thema wechselt. Da KI-Modelle kein Gedächtnis haben, fügen sie bei jeder Antwort die gesamte Chat-Historie hinzu. Das erhöht die Anzahl der Token und damit den Rechenaufwand.

Eine Simulation zeigte: Der Tokenverbrauch ließe sich um bis zu 19 Prozent senken, wenn konsequent neue Chats bei Themenwechsel begonnen werden. Die Internationale Energieagentur schätzt, dass Rechenzentren bereits zwei Prozent des weltweiten Stromverbrauchs ausmachen – Tendenz steigend.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

ElevenLabs, ein KI-Unternehmen, hat „Eleven Music“ gestartet – einen Generator für Songs in verschiedenen Stilen. Nutzer können Tempo, Instrumente, Gesangsstil und Struktur vorgeben. Die Inhalte entstanden laut ElevenLabs gemeinsam mit Labels und Künstlern und sind für kommerzielle Nutzung freigegeben.

Strenge Regeln gelten trotzdem: Politische oder religiöse Nutzung ist untersagt, ebenso das Erstellen von Songs für kommerzielle Musikbibliotheken. Reale Künstlernamen oder bekannte Songtexte als Eingabe sind verboten. ElevenLabs positioniert sich damit anders als Konkurrenten wie Suno und Udio, die in Rechtsstreits mit Plattenfirmen stehen.

Apple-CEO Tim Cook hielt nach guten Quartalszahlen eine interne Ansprache zur KI-Strategie. Er verglich die KI-Revolution mit Internet, Smartphones oder Cloud-Computing und kündigte massive Investitionen an. Cook griff zu einem bewährten Narrativ: Apple sei traditionell nicht der erste Anbieter neuer Technologien, sondern perfektioniere diese.

Softwarechef Craig Federighi versprach ein „viel größeres Upgrade“ für Siri als bisher gedacht. Die Sprachassistentin soll von Grund auf überarbeitet werden und kommendes Jahr neu erscheinen. Apple hatte bisher bei KI-Entwicklungen hinter Konkurrenten wie Google und OpenAI zurückgelegen.

Google hat Genie 3 vorgestellt – die neue Version seines Weltmodells, das aus Textbefehlen interaktive 3D-Welten in Echtzeit generiert. Die Welten sehen detaillierter aus, die Auflösung steigt von 360p auf 720p. Vor allem verbessert Google die Persistenz: Das Modell hat nun ein Gedächtnis von mehreren Minuten statt 10 bis 20 Sekunden.

Google stellt Genie 3 bisher nur ausgewählten Forschern zur Verfügung. Als Verbesserungsmöglichkeiten sieht das Unternehmen das Rendering von Texten und die Interaktion mehrerer KI-Agenten in einer gemeinsamen Welt. Langfristig sollen die Welten nicht nur für Minuten, sondern für Stunden persistent bleiben.

Anthropic hat Claude Opus überarbeitet. Die neue 4.1-Version verbessert Programmierung, datenintensive Analysen und agentische Fähigkeiten für mehrstufige Aufgaben. Im Programmierbenchmark SWE-bench Verified erreicht das Modell 74,5 Prozent – fünf Prozentpunkte mehr als OpenAIs o-Serie.

OpenAI bereitet GPT-5 vor, das bei Programmierung und agentischen Anwendungen besser werden soll. Der große Sprung wie von GPT-3 zu GPT-4 soll aber ausbleiben. Claude Opus 4.1 steht zahlenden Nutzern ohne Aufpreis zur Verfügung.

Die US-Regierung prüft technische Maßnahmen zur besseren Verfolgung von KI-Chips. Software- oder physische Änderungen sollen eine bessere Standortverfolgung der nach China gelieferten Halbleiter ermöglichen. Peking hat bereits Nvidia-Vertreter einbestellt, um die Pläne zu erörtern.

Taiwan Semiconductor Manufacturing (TSMC), ein Chiphersteller, hat mehrere Mitarbeiter entlassen. Ihnen wird vorgeworfen, Informationen über die modernste 2-Nanometer-Technologie stehlen zu wollen. Die Technologie gilt als weltweit fortschrittlichste und wird nur von TSMC, Samsung, Intel und Rapidus entwickelt.

Ein virales Video zeigt Hasen, die nachts auf einem Trampolin hüpfen – aufgenommen von einer Überwachungskamera. Das Video ist KI-generiert, obwohl es für viele täuschend echt wirkt. Es wurde millionenfach angesehen und erhielt hunderttausende Likes auf TikTok, X, Instagram und YouTube.

Die schlechte Aufnahmequalität einer vermeintlichen Nachtaufnahme macht das Video besonders glaubwürdig. Inzwischen gibt es ähnliche KI-Videos mit anderen Tieren wie Bären und Dackeln. Ein echter Kojote auf einem Trampolin soll den Trend ausgelöst haben.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(mali)



Source link

Weiterlesen

Künstliche Intelligenz

Wie Studierende KI an der Uni nutzen – und was Experten davon halten


Es ist 23 Uhr. Die Abgabefrist der Hausarbeit ist am nächsten Morgen. Im schlimmsten Fall bedeutet das eine mühselige Nachtschicht, um noch irgendwie zu bestehen. Für viel mehr ist keine Zeit.

Diese Erfahrungen machen einige Menschen während ihres Studiums. Doch vielleicht bekommen zukünftige Absolvent:innen mehr ruhige Nächte. Denn immer häufiger ist ChatGPT die Antwort auf die Forschungsfrage in der Hausarbeit. Ein nicht repräsentativer Forschungsbericht der Hochschule Darmstadt legt nahe, dass bereits 90 Prozent aller Studierenden in Deutschland KI-Tools für die Uni nutzen.

Einer von ihnen ist Alex (Name geändert). Er greift im Studium öfter auf ChatGPT zurück. Der 23-Jährige studiert Kindheitspädagogik in Hildesheim. „Ich habe mir tatsächlich auch schon unbenotete Arbeiten davon schreiben lassen“, erklärt er. Für ihn ist die generative KI eine Erleichterung. Die Universitäten stehen bei Studierenden wie Alex dagegen vor einer großen Aufgabe. Denn durch die großen Sprachmodelle verändert sich die Art, wie Wissen überprüft wird. Aber wie sollten Hochschulen damit umgehen?

Martin Wan beschäftigt sich mit Fragen wie diesen. Er ist Projektleiter für die Hochschulrektorenkonferenz (HRK) im Hochschulforum Digitalisierung (HFD). Das HFD unterstützt Hochschulen dabei, Fragen zum Einsatz von KI etwa im Studium und der Lehre zu meistern. Während es vereinzelte Stimmen gibt, die nach einem Verbot rufen, hält Wan solche Maßnahmen für falsch. „Die Technologie existiert nun mal. Dadurch ist ein reflektierter Umgang wichtig, der auch an Hochschulen eingeübt werden muss“, sagt er.

Dass es sich dabei um einen langwierigen Prozess handelt, zeigt sich anhand vieler Beispiele. Von einem reflektierten Umgang scheint man nämlich noch weit entfernt zu sein. Im Netz, etwa auf Reddit, berichtet ein Professor über die miserablen Prüfungsleistungen seiner Studierenden. Von zehn korrigierten Bachelorarbeiten seien vier durchgefallen. Alle Student:innen hätten entweder Quellen erfunden oder unpassende Quellen verwendet. Die Vermutung: Die KI hat bei der Literatur halluziniert und Inhalte erfunden. Es ist nicht die einzige Geschichte dieser Art. Das Magazin Rolling Stone berichtete etwa über einen texanischen Professor, der einen Großteil seines Kurses wegen der Verwendung von ChatGPT durchfallen lassen wollte.

In Deutschland gab es bislang nur in einem Fall ein rechtskräftiges Urteil. Die TU München lehnte einen Bewerber ab, der im Motivationsschreiben mutmaßlich KI eingesetzt haben soll. Das Verwaltungsgericht gab der Uni recht und der Bewerber wurde nicht zugelassen. Das Gericht traute den Professor:innen zu, KI-Arbeiten zu erkennen.

„Wenn Studierende die KI nicht kompetent beherrschen, dann kommt ein Bullshit-Bingo heraus“, sagt auch Bernhard Ertl, der an der Universität der Bundeswehr in München zum Lernen und Lehren mit Medien forscht. „Da weiß ich sofort: Diese Textstellen hat noch niemand zuvor gelesen, weil Teile davon einfach hanebüchen sind.“

Bei Maximilians Hausarbeiten wird wohl kein Bullshit-Bingo herauskommen. Der 24-Jährige studiert Data Science im Master an der TU Wien. Statt ChatGPT als Ghostwriter zu verwenden, nimmt er das Tool lieber als Startpunkt für seine Recherche. „Wenn ich am Anfang von einer Hausarbeit einen gewissen Überblick über den Themenbereich bekommen muss, dann eignet sich ChatGPT schon sehr gut“, erklärt er. „Ich kann quasi am Anfang, basierend auf der Forschungsfrage, direkt eine Idee bekommen, wie der aktuelle Stand der Wissenschaft da aussieht.“

Alex geht anders an die Aufgabe. Er recherchiere erst Literatur. „Dann lasse ich ChatGPT den Text so schreiben, dass meine Literatur dafür passt“, sagt er. Entdeckt er bei seiner Recherche Wörter, die er nicht versteht, lasse er sich diese von der KI erklären. Maximilian macht es ähnlich. „So kann ich komplexere Themen runterbrechen, falls ich mal wirklich nichts verstehe“, sagt der Wiener Student. „Oft kann ChatGPT das in eine verständlichere Sprache übersetzen.“

Bernhard Ertl hält den Ansatz für sinnvoll, ChatGPT als ergänzende Hilfe zu verwenden. „Die KI kann ein Werkzeug sein, mit dem die Studierenden zu besseren Ergebnissen kommen, wenn sie sich entsprechend in dieses Werkzeug reinarbeiten“, sagt er. Doch das ist nicht immer der Fall. „Dann wird es schlechter, weil sie einfach nur Prompts machen und was generiert wird, in die Arbeit einfügen, und das nicht verstehen“, ergänzt er.

Alex glaubt, dass es für die Dozierenden kaum erkennbar sei, ob er oder die KI die Hausarbeit geschrieben hat. „Ich muss auch sagen, ich hatte immer Angst, wenn meine Arbeiten durch Plagiatsprüfer überprüft werden. Aber auch da muss ich sagen: Es hat bis jetzt jedes Mal funktioniert“, erzählt er.

Plagiatsprüfer überprüfen, ob die Autor:innen ihren Text abgeschrieben haben. Dabei vergleichen sie die Arbeit mit einer Datenbank aus wissenschaftlichen Texten. Am Ende kommt dabei eine Prozentzahl raus, die bestimmt, wie viel der eingereichte Text denen aus der Datenbank ähnelt. Oft braucht es allerdings eine genaue Überprüfung, um herauszufinden, ob es sich um Ähnlichkeiten oder um wirkliche Plagiate handelt.

Wer beim Abschreiben erwischt wird, fällt durch. Das gilt auch, wenn die KI zufällig dieselben Wörter verwendet. Mittlerweile gibt es auch KI-Detektoren. Die sollen erkennen, ob Studierende bei ihrer Arbeit Texte mit einem KI-Chatbot geschrieben haben. Eine Studie der British University Vietnam und der James Cook University in Singapur zeigt: Oft sind diese Tools sehr ungenau. Einrichtungen wie die Uni Hannover verwenden deswegen Tools dieser Art nicht. In einer Stellungnahme der Universität zur Verwendung von KI-Detektoren heißt es, dass „die Ressourcen der Hochschulen besser in die Anpassung der Prüfungskultur und -formate gesteckt werden sollten“.

Wer das als Freifahrtschein für die KI-Nutzung sieht, sollte trotzdem auf die KI-Richtlinien der jeweiligen Universität achten. So muss man etwa an der Universität zu Köln kenntlich machen, ob und wie KI bei einer Hausarbeit verwendet wurde. Das bereits erwähnte Gerichtsurteil aus München greift die Universität auch auf. „Bei Täuschungshandlungen kann dabei der sogenannte Anscheinsbeweis geführt werden“, heißt es auf der Webseite. Sollten Prüfer:innen mögliche Anzeichen wie erfundene Quellen für eine unrechtmäßige KI-Nutzung feststellen, zählt das in Köln als Täuschung.

Eine Studie aus dem „International Journal of Educational Technology in Higher Education“ zeigt auch andere Beweggründe auf, ChatGPT in der Uni zu nutzen. Dabei decken die Forscher:innen auf, dass Studierende, die unter großem Druck stehen und einen hohen Workload haben, eher auf ChatGPT zurückgreifen. Besonders vorsichtige Studierende schrecken eher vor der Verwendung zurück – aus Angst vor Konsequenzen.

Wenn Studierende wie Alex Hausarbeiten mit ChatGPT schreiben, ist das für Wan ein Warnsignal. „Ist die Art und Weise, wie wir prüfen, sinnvoll? Fördern wir damit Kompetenzen?“, fragt er. Die Studie zeigt nämlich auch: Wer ChatGPT während des Studiums exzessiv nutzt, erzielt schlechtere Ergebnisse. Trotzdem oder vielleicht sogar deswegen sieht Wan in der KI eine Chance, eine moderne Prüfungskultur zu schaffen, die nicht stumpf Wissen abfragt und stattdessen die Anwendung in den Fokus stellt.

Einen offenen Umgang mit dem Thema gibt es laut Alex an seiner Hochschule nicht. „Ich habe da jetzt noch nicht wirklich viel mitbekommen“, erzählt er. Auf der Webseite der Universität finden sich hingegen viele Infos. Sogar einen kostenlosen Zugang zu ChatGPT 4o samt Handlungsempfehlungen für Studierende gibt es. Lehrende sind etwa angewiesen, Prüfungsaufgaben so zu stellen, dass eine KI nicht ausreicht, um sie zu beantworten.

Wan und Ertl sind sich einig: Es braucht die passenden Strukturen für KI. Dafür hat die Hochschulrektorenkonferenz auf über 40 Seiten sieben Handlungsempfehlungen verfasst. Darunter fällt zum Beispiel, dass es ein größeres Verständnis über das Thema benötigt oder Hochschulen Räume für einen interdisziplinären Austausch fördern sollten. „Vor allem empfehlen wir auch nochmal ganz klassische Kompetenzen wie Quellen- und Ideologiekritik einzuüben“, so Wan.

Studierende sollten sich bewusst sein, dass KI-Tools halluzinieren und nicht belegbare Dinge als Fakten darstellen können. „Und das geht bis zu einer Ideologiekritik der Anbieter“, führt Wan fort. Beim Verwenden von Deepseek sollte man im Hinterkopf haben, dass das Tool eher Antworten liefert, die der ideologischen Linie der chinesischen Regierung entsprechen.

Bernhard Ertl arbeitet gerade an einem Projekt, bei dem interkulturelle Trainings mit einem KI-Avatar erleichtert werden sollen. „Das funktioniert ganz gut, wenn es etwa ein Englisch-Training ist, damit die Leute Übung bekommen, in der Sprache zu reden“, erklärt der Professor. Avatare dieser Art sollen aber auch als Lernpartner funktionieren, „der die Leute beim Lernen unterstützt, Fragen beantwortet oder Sachen zusammenfasst.“

Für Studierende wäre das wohl ein Segen. Zumindest erzählen sowohl Alex als auch Maximilian, dass Künstliche Intelligenz ihren Uni-Alltag enorm erleichtert – entweder als Recherche-Hilfe, als Erklär-Tool, aber auch als Ghostwriter. Wer KI falsch in der Uni einsetzt, lernt nicht nur weniger, sondern läuft auch Gefahr, eine schlechte Prüfungsleistung abzugeben. Das Studium wird durch die Sprachmodelle also nicht komplett abgeschafft.

Hochschulen stehen nun vor der Aufgabe, KI so in die Studiengänge zu integrieren, dass Studierende bewusst damit umgehen können. Dafür müssen sie auch überarbeiten, wie sie gelerntes Wissen prüfen, damit nicht mal eben ganze Hausarbeiten gepromptet werden können. Ertl geht davon aus, dass KI den Status von Computern oder Internet-Tools einnehmen wird, die Studierende durch ihren Alltag begleiten. „Das ist ähnlich wie mit einem Hammer“, sagt er. „Ich muss den Hammer so bedienen, dass ich mir nicht auf die Finger haue und dann der Nagel so in der Wand ist, damit das Bild hängen bleibt.“

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Weiterlesen

Künstliche Intelligenz

Uber: Laut Gerichtsunterlagen alle acht Minuten ein sexueller Übergriff


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Statistisch alle acht Minuten gab es in den USA zwischen den Jahren 2017 und 2022 einen sexuellen Übergriff in einem Fahrzeug des Mobilitätsdienstleisters Uber. Dies berichtet die New York Times unter Berufung auf Gerichtsdokumente und nach Gesprächen mit früheren und heutigen Mitarbeitern. Dem Unternehmen wird demnach vorgeworfen, dass es das Problem herunterspiele und zu wenig dagegen unternimmt, obwohl wirksame Schutzmaßnahmen möglich wären. Zudem stehe das Problem damit in Verbindung, dass Uber keine eigenen Fahrer beschäftigt, sondern nur als Vermittler zwischen selbstständigen Fahrern und Fahrgästen vermittelt.

Das Unternehmen sieht sich unter anderen mit einer Sammelklage konfrontiert. Insgesamt gingen bei Uber in den fünf Jahren rund 400.181 Berichte über sexuelle Übergriffe und Fehlverhalten ein – eine Zahl, die weit über den bisher veröffentlichten 12.522 schweren sexuellen Übergriffen liegt. Die meisten Opfer seien Frauen. Die Taten ereigneten sich den Zahlen zufolge zumeist spätabends und am Wochenende und bevorzugt bei Abholungen von Bars. Etwa 75 Prozent der Meldungen seien allerdings “weniger schwerwiegend“ gewesen, erklärt Hannah Nilles, Ubers Sicherheitschefin für Amerika. Dazu zählt sie laut Bericht Kommentare über das Aussehen, Flirten oder anzügliche Sprache.

Das Unternehmen hatte den Unterlagen zufolge intern bereits seit Jahren das Problem untersucht und entwickelte sogar effektive Sicherheitstools. Dazu gehörten ausgeklügelte Matching-Algorithmen, um nur Fahrer und Fahrgäste zusammenzubringen, von denen ein niedriges Risiko ausgeht, Videoaufzeichnungen und die Zuordnung weiblicher Fahrgäste zu Fahrerinnen. Bereits 2018 habe Uber ein KI-basiertes System namens „Safety Risk Assessed Dispatch“ entwickelt, das 15 Prozent der sexuellen Übergriffe korrekt vorhersagen konnte. Ein internes Dokument aus dem Jahr 2024 offenbart jedoch, dass das System immer noch Fahrten vermittelte, die als hochriskant eingestuft wurden.

Dass sich Uber dagegen entschied, die Maßnahmen flächendeckend einzuführen, habe mit Sorgen um das Geschäftsmodell zu tun. Da das Unternehmen nur selbstständige Auftragnehmer beschäftigt, vermeide es hohe Kosten für Sozialleistungen und Überstunden. Dadurch kann es allerdings auch weniger Einfluss auf die Bedingungen nehmen, unter denen die Fahrten erfolgen. Das Vorhaben, weibliche Fahrgäste mit weiblichen Fahrern zusammenzubringen, habe das Unternehmen zurückgestellt, als Donald Trump ein weiteres Mal Präsident der USA wurde. Das Unternehmen habe Diskriminierungsklagen und einen Kulturkrieg befürchtet.

Aktuell sehe sich Uber mit über 3000 Klagen wegen sexuellen Missbrauchs konfrontiert. Die New York Times berichtet über verschiedene Fälle von versuchten und erfolgten Vergewaltigungen. Mehr als 100 Fälle habe Uber bereits außergerichtlich beigelegt. Im September soll der erste Prozess beginnen, bei dem es über einen Übergriff auf eine damals 18-jährige Studentin geht. Der Vorfall reicht in das Jahr 2016 zurück. Schon damals gab es tausende Beschwerden wegen Übergriffen.

Uber erklärte gegenüber der Times, dass 99,9 Prozent aller Fahrten ohne Zwischenfälle verlaufen. Kritiker wollten das Unternehmen für “extrem seltene und unvorhersehbare kriminelle Handlungen” seiner Fahrer verantwortlich machen. Tatsächlich sollen auch andere Fahrtenvermittler und auch klassische Taxibetreiber mit ähnlichen Problemen konfrontiert sein, schreibt die Times. Das Ausmaß bei Uber rage aber über das Mittelmaß hinaus.


(mki)



Source link

Weiterlesen

Beliebt