Künstliche Intelligenz
Bauvorschlag: Schneller Gaming-PC im Mini-ITX-Format
Zockerkisten sind oft groß, laut und grell beleuchtet. Dezente, kleine Gamingmaschinen, die man sich auch auf den Schreibtisch stellen würde, findet man hingegen selten. Klar: Der Aufwand, viel Performance in einem kleinen Gehäuse unterzubringen und das Gesamtsystem dann noch ausreichend kühl und gleichzeitig leise zu bekommen, ist unweit größer. Aber es geht!
Allerdings, daraus wollen wir keinen Hehl machen, kostet so ein System auch mehr als eins mit Standardkomponenten. Unter dem Strich kamen wir mit einer Achtkern-CPU, einer Radeon RX 9070, 32 GByte RAM und einer 2-TByte-SSD auf knapp 1650 Euro. Für das Geld bekommen Sie aber einen attraktiven, kompakten Gaming-PC, der auch im Wohnzimmer eine gute Figur macht und dank unserer Tüftelei bei den Lüfterkurven angenehm leise arbeitet.
- Der Mini-ITX-Gamer stellt Spiele in WQHD ruckelfrei mit höchster Detailstufe dar und hat Reserven für 4K.
- Er treibt bis zu sechs 4K-Displays an, bleibt im Leerlauf unhörbar und unter Last leise.
- Sein schickes Gehäuse nimmt auf dem Schreibtisch nicht viel Platz weg.
Komponentenwahl
Die Komponentenwahl lief bei diesem Bauvorschlag insgesamt angenehm unkompliziert ab. Als Erstes stand das Gehäuse fest, denn das Fractal Design Era 2 für Mini-ITX-Boards ist ein Hingucker mit vielen durchdachten Details, die den Zusammenbau erleichtern. Beispielsweise zieht man das Blechkleid ohne Werkzeug nach oben ab, um an das Innenleben zu gelangen, und auch der verschiebbare Mainboard-Träger macht das Bestücken flexibler. So kann man sich zwischen einem höheren CPU-Kühler und einer dickeren Grafikkarte entscheiden. Vor allem aber darf letztere knapp 33 Zentimeter lang sein. Das erlaubt leistungsstarke Modelle, die wegen des üppigen Platzangebots für ein großes Kühlsystem leiser sind. Wir haben uns für die blaue Ausgabe entschieden, es gibt den Mini-Tower aber auch in Silber und Grau. Der Deckel ist immer holzfarben.
Das war die Leseprobe unseres heise-Plus-Artikels „Bauvorschlag: Schneller Gaming-PC im Mini-ITX-Format“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Jeder Dritte ist schon auf Fake News hereingefallen
Jeder dritte Bürger ist einer Umfrage zufolge schon einmal auf Falschnachrichten im politischen Raum hereingefallen. Etwa jeder Siebte davon gab in der repräsentativen Befragung der IU Internationale Hochschule in Erfurt an, auf der Basis von sogenannten Fake News eine fehlgeleitete Wahlentscheidung getroffen zu haben. Und rund jeder Fünfte hat sich demnach deswegen schon einmal mit anderen gestritten.
Die Dunkelziffer könnte noch höher liegen: Etwa ein Viertel des Befragten gab an, dass sie sich nicht sicher seien, ob sie schon einmal auf Fake News hereingefallen sind, die sich später als solche herausgestellt haben.
„Wir haben in den letzten Monaten gesehen, dass es viele Versuche auch von Staaten gab, massiv mit Hilfe von Fake News einzugreifen“, sagte die Professorin für Medienmanagement an der IU, Nele Hansen. Gerade mit der Zunahme von generativer KI werde die Geschwindigkeit weiter zunehmen. „Das ist eine große Gefahr.“ Rund drei Viertel der Befragten gaben an, dass ihr Vertrauen in Medien durch Fake News allgemein gesunken sei.
Vor allem Jüngere fallen auf Fake News rein
Der Umfrage zufolge berichteten vor allem Menschen unter 30 Jahren davon, schon einmal Falschnachrichten auf den Leim gegangen zu sein. Hansen sagte dazu: „Das hängt zum einen damit zusammen, dass sie durch eine stärkere Social Media Nutzung auch mehr mit Fake News in Berührung kommen.“ Die ältere Generation habe aber auch eine größere Skepsis.
Etwa jeder Zweite gab an, Informationen zum aktuellen politischen oder gesellschaftlichen Geschehen immer oder häufig auf ihre Richtigkeit zu überprüfen. Aus ihrer Sicht seien auch die Schulen und Hochschulen in der Pflicht, ein grundlegendes Bewusstsein zu schaffen, sagte Hansen. „Aber auch die Politik und die großen Tech-Unternehmen sind gefragt zu regulieren.“
Sogenannte Deepfakes, also teils per KI erstellte Fotos oder Videos, seien immer schwerer zu erkennen, sagte Hansen weiter. Es gebe KI-Detektoren, die Hilfestellung geben könnten. Die Deepfakes würden aber immer besser und nicht immer zuverlässig erkannt. „Ich denke, eine Kennzeichnungspflicht für KI-generierte Inhalte wäre wichtig.“
(dmk)
Künstliche Intelligenz
Kritiker sehen Google-Urteil als nicht ausreichend und haben Datenschutzbedenken
„Google darf sein Monopol weiterhin nutzen, um Konkurrenten auszubremsen, auch bei der KI-Suche.“ So sieht einer der Wettbewerber auf dem Markt für Suchmaschinen das jüngste Urteil im Kartellverfahren gegen Google. Denn der Datenkonzern war trotz anerkannter Monopolstellung einer Aufspaltung entgangen und ist mit Auflagen davongekommen. Neben Kritik an einem gemeinhin als zu mild bezeichneten Urteil gibt es jetzt auch Rufe nach strengeren Gesetzen, die den Wettbewerb in der Technologiebranche verbessern und absichern sollen.
Bereits letztes Jahr hatte ein US-Bundesgericht entschieden, dass Googles Suchmaschinen-Geschäfte illegal sind, und diese Woche verkündete Richter Amit Mehta die daraus entstandenen Sanktionen. Demnach darf Google Chrome und Android behalten, muss aber Suchdaten mit der Konkurrenz teilen. Die Kläger, das US-Justizministerium und eine Reihe von US-Bundesstaaten, hatten allerdings eine Aufspaltung des Datenkonzerns gefordert, um Googles marktbeherrschende Stellung einzudämmen.
Kritik an vermeintlich zu mildem Urteil
Dass es dazu nicht gekommen ist, wird jetzt vielfach kritisiert. So erklärt Gabriel Weinberg, CEO der DuckDuckGo-Suchmaschine, dass „die vom Gericht angeordneten Auflagen die notwendigen Änderungen erzwingen werden, um dem illegalen Verhalten von Google angemessen zu begegnen.“ Er fordert deshalb den US-Kongress zum Einschreiten auf, um Google zu mehr Wettbewerb zu zwingen.
Die US-amerikanische „News/Media Alliance“, die frühere „Newspaper Association of America“, kritisiert dagegen, dass Google weiterhin Online-Inhalte abgreifen und für die eigenen KI-Produkte nutzen kann. „Google zwingt Content-Ersteller, ihre Inhalte für die Nutzung durch seine KI-Angebote freizugeben, um in der Google-Suche zu bleiben“, schreibt Danielle Coffey, Präsidentin und CEO der News/Media Alliance. „Dies ist ein aussichtsloses Szenario, das Verlagen, die in hochwertige, journalistische und kreative Inhalte investieren, weiterhin schaden wird. Die Möglichkeit für Verlage, sich von Googles KI abzumelden, ist entscheidend, um ein offenes Internet ohne wettbewerbsschädigendes Verhalten zu erhalten und faire Wettbewerbsbedingungen für Unternehmen verschiedener Branchen zu gewährleisten.“
Bedenken wegen KI und Datenschutz
Die Leiterin vom „Tech Oversight Project“ schlägt in dieselbe Kerbe. „Zwar blockiert Richter Amit Mehtas Entscheidung einige der räuberischen Praktiken Googles, doch sie wird diesem historischen Moment nicht gerecht“, erklärt Sacha Haworth. „Sie zeigt, dass seine Entscheidung auf spekulativen Argumenten über generative KI beruhte, in der Google aufgrund seiner Monopolverflechtung und seines Vertriebsvorteils bereits ein dominanter Akteur ist. Die Suchmaschine ist einer der wichtigsten Kanäle für zukünftige KI-Abfragen, und es ist völlig klar, dass Richter Mehta, anstatt den harten Weg zu gehen, viel lieber Google das Internet und unsere Wirtschaft weiterhin seinem Willen unterwerfen ließ, als das Gesetz durchzusetzen, das gleiche Wettbewerbsbedingungen schaffen soll, die der amerikanischen Bevölkerung und innovativen, neuen Unternehmen zugutekommen.“
Zudem gibt es Bedenken wegen der vom Richter erteilten Auflage, dass Google Suchdaten und -ergebnisse mit „qualifizierten Wettbewerbern“ teilen muss. So erklärt Matt Schruers, Präsident und CEO der „Computer and Communications Industry Association“, eine Interessenvertretung der Informations- und Kommunikationstechnologiebranche: „Für Verbraucher bedeutet das Urteil, dass Google gezwungen sein wird, Suchanfragen und andere Daten mit bestimmten Wettbewerbern zu teilen, was erhebliche Auswirkungen auf die Privatsphäre und die nationale Sicherheit haben könnte.“
Google und Justizministerium prüfen Rechtsmittel
Das Competitive Enterprise Institute fragt sich dagegen, wer als „qualifizierter Wettbewerber“ gelten könnte und ob dies den Verbrauchern oder nur den Google-Konkurrenten zugutekommt. Der US-amerikanische, politisch konservative, libertäre Thinktank sieht Google im Recht, die Entscheidung wegen der ursprünglichen Begründung anzufechten.
Bislang hat der Datenkonzern aber nicht über Rechtsmittel entschieden. „Wir haben Bedenken hinsichtlich der Auswirkungen dieser Anforderungen auf unsere Nutzer und deren Privatsphäre und prüfen die Entscheidung sorgfältig“, schreibt Google in einer Stellungnahme zu dem jüngsten Urteil.
Auch das US-Justizministerium erwägt, das Urteil anzufechten. Abigail Slater, stellvertretende Generalstaatsanwältin der Kartellabteilung des Ministeriums, bezeichnet das Urteil zwar als „wichtigen Schritt in einem wichtigen Kartellverfahren“, aber das Ziel sei, „den Wettbewerb auf dem lange Zeit monopolisierten Suchmarkt wiederherstellen“. Deshalb schreibt sie bei X: „Wir wägen nun unsere Optionen ab und überlegen, ob die angeordneten Auflagen ausreichen, um dieses Ziel zu erreichen.“
(fds)
Künstliche Intelligenz
KI-Update kompakt: Grok, ChatGPT, Mistral, DeepL
KI-Chatbot Grok wird nach Musks Eingriffen konservativer
Der KI-Chatbot Grok von xAI wird nach jedem öffentlichen Einwand seines Eigentümers Elon Musk konservativer. Die New York Times stellte 41 standardisierte Fragen und verglich die Antworten über mehrere Monate. Bei wirtschaftlichen und staatsbürgerlichen Themen rückten die Antworten nach rechts, bei sozialen Themen gleichzeitig nach links. Der auffälligste Eingriff erfolgte im Juli, nachdem Grok kurzzeitig Adolf Hitler lobte und den Holocaust verteidigte. Nach dem Update wurde der Chatbot zunächst linker, dann korrigierte xAI erneut in die konservative Richtung.
Die Analyse zeigt: Gezielte Manipulation von Chatbots ist möglich, aber nicht präzise steuerbar. Jede Anpassung nach Musks Kritik veränderte die Antwortrichtung messbar, allerdings nicht immer wie beabsichtigt.
ChatGPT erhält Sicherheitsfunktionen für psychische Krisen
OpenAI stattet ChatGPT mit neuen Schutzfunktionen für Menschen in psychischen Krisen aus. Ein automatisches System erkennt Anzeichen akuter Belastung und leitet Gespräche an spezielle „Reasoning Models“ wie GPT-5-thinking weiter. Diese Modelle wurden mit „Deliberative Alignment“ trainiert: Sie denken länger nach und befolgen Sicherheitsrichtlinien konsistenter.
Eltern können ihre Konten mit denen ihrer Kinder verknüpfen, altersgerechte Regeln festlegen und Benachrichtigungen bei erkannter Belastung erhalten. Die Funktionen kommen innerhalb eines Monats. OpenAI reagiert damit auf mehrere Todesfälle: In Kalifornien nahm sich ein 16-Jähriger das Leben, nachdem ChatGPT in seine Suizidgedanken involviert war. Ein anderer Mann tötete seine Mutter und sich selbst, nachdem der Chatbot seine paranoiden Wahnvorstellungen bestätigt hatte. Über 90 Ärzte aus 30 Ländern beraten OpenAI bei der Entwicklung.
Mistral stattet Le Chat mit Tool-Anbindungen und Gedächtnis aus
Der französische KI-Anbieter Mistral erweitert seine Plattform Le Chat um externe Tool-Anbindungen und eine Gedächtnisfunktion. Über das Model Context Protocol können Nutzer auf mehr als 20 Plattformen zugreifen, darunter Databricks, GitHub, Notion und Jira. Die Schnittstelle ermöglicht komplexe Arbeitsabläufe: Kundenbewertungen in Databricks analysieren, daraus Aufgaben in Asana generieren und Ergebnisse in Box speichern.
Die neue Memory-Funktion speichert relevante Informationen aus vergangenen Chats. Das System merkt sich Präferenzen und berücksichtigt frühere Entscheidungen. Mistral verspricht, nur wichtige Inhalte dauerhaft zu speichern, flüchtige oder sensible Informationen bleiben außen vor. Nutzer können gespeicherte Einträge jederzeit bearbeiten oder löschen. Beide Funktionen stehen allen Le Chat-Nutzern kostenfrei zur Verfügung.
KI identifiziert über 1000 fragwürdige Wissenschaftsmagazine
Informatiker der University of Colorado Boulder haben mit KI-Technik mehr als 1000 problematische Wissenschaftsmagazine aufgespürt. Diese „Raubjournale“ werben gezielt um Forschende außerhalb der USA und Europas und versprechen Veröffentlichung gegen Bezahlung. Die zugesagte Peer-Review findet nicht statt, stattdessen werden PDF-Dateien online gestellt.
Das Team um Daniel Acuña trainierte eine KI anhand geprüfter Fachmagazine und ließ 15.200 Titel untersuchen. Von anfangs 1400 potenziell problematischen Titeln blieben nach manueller Prüfung über 1000 als „zweifelhaft“ eingestufte Magazine übrig. Unter dem Publikationsdruck nehmen Forschende solche Angebote manchmal an. Das Team will sein Prüfwerkzeug für die Forschung freigeben.
DeepL bringt KI-Agenten für Unternehmensaufgaben
DeepL, ein Kölner Übersetzungsanbieter, stellt einen KI-Agenten für Unternehmen vor. Er automatisiert repetitive Aufgaben wie Rechnungsbearbeitung oder Zusammenfassung von Vertriebserkenntnissen. Der Agent arbeitet autonom innerhalb der digitalen Umgebung des Nutzers und lernt aus bisherigen Aufgaben.
Gründer Jaroslaw Kutylowski sieht Vorteile durch DeepLs Sprachkompetenz: KI-Agenten müssen sprachliche Anweisungen exakt umsetzen. Das Unternehmen entwickelt alles im eigenen Haus mit über 1000 Mitarbeitern weltweit. Die Beta-Version ist zunächst für ausgewählte Partner verfügbar, soll aber bald frei zugänglich sein.
Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Studie zeigt: Coding-Agenten scheitern an komplexen Aufgaben
KI-Agenten können noch nicht wie menschliche Entwickler arbeiten. Zu diesem Schluss kommt eine Studie von Forschern der Cornell University, des MIT, Stanford und UC Berkeley. Die Tools bieten zwar echten Mehrwert, scheitern aber an komplexen Coding-Aufgaben.
Probleme bereiten das Verständnis umfangreicher Codebasen, höhere logische Komplexität und langfristige Codequalität. Die Lösung liegt in besserer Kommunikation: KI-Systeme sollten bei unklaren Anweisungen proaktiv nachfragen. So könnten sie Unsicherheiten vermeiden und die Absichten der Entwickler besser erfassen.
ElevenLabs verlängert KI-Soundeffekte auf 30 Sekunden
ElevenLabs, ein KI-Unternehmen zur Sprachgenerierung, hat Version 2 seines Soundeffekt-Modells veröffentlicht. Es erzeugt Geräusche per Textanweisung, die jetzt bis zu 30 Sekunden dauern und sich nahtlos wiederholen können. Nutzer steuern das Modell über die Benutzeroberfläche oder eine API. Die wiederholbaren Effekte sind direkt im hauseigenen Audio-Editor ElevenLabs Studio verfügbar.
(igr)
-
Datenschutz & Sicherheitvor 3 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
UX/UI & Webdesignvor 2 Wochen
Der ultimative Guide für eine unvergessliche Customer Experience
-
Apps & Mobile Entwicklungvor 3 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 3 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
UX/UI & Webdesignvor 5 Tagen
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Wochen
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick