Apps & Mobile Entwicklung
Sid Meier’s Civilization VII: Ab dem 5. Februar für iPhone, iPad und Mac über Apple Arcade
2K Games hat Sid Meier’s Civilization VII für den Abo-Service Apple Arcade und damit macOS, iOS und iPadOS angekündigt. Die Entwickler sprechen von einem „authentischen Spielerlebnis der Basisversion“, das volle Spiel gibt es also nicht. Es werden längst nicht alle Inhalte und auch nicht die Neuesten zur Verfügung stehen.
Civilization VII ohne DLCs und potenzielle Zukunft-Updates
Genauer gesagt wird zwar das gesamte Hauptspiel auf Apple Arcade inklusive aller Patches angeboten. Sämtliche seitdem erschienene DLCs, seien es große oder kleine Erweiterungen, fehlen dagegen. Das scheint sich in Zukunft auch nicht zu ändern, zumindest Apples Wortlaut diesbezüglich klingt ziemlich endgültig.
Das ist auch nicht die einzige Limitierung, zwei weitere werden noch erwähnt. So ist die Möglichkeit gegeben, dass die Apple-Arcade-Version nicht sämtliche Patches der normalen Version erhalten wird. Und sollte das Update doch kommen, ist ein späterer Release nicht ausgeschlossen. Darüber hinaus fehlt der komplette Multiplayer-Modus, auf Apple Arcade werden nur die Einzelspieler-Modi spielbar sein.
Nur auf neuen Geräten lauffähig
Lauffähig ist Sid Meier’s Civilization VII auf iPhones abt iOS 17 und A17-Pro-Chip, iPads mit iOS 17 mit einem A17-Pro- oder einem M1-Chip sowie auf Macs mit macOS 12.1 und dem M1-Chip. Darüber hinaus ist in den Systemanforderungen aufgeführt, dass große Maps nur mit „8GB+ RAM“ lauffähig sind. Ob damit 8 GB oder mehr als 8 GB gemeint sind, ist nicht ersichtlich. Auf dem PC sind 8 GB die Mindestanforderung und eine Map-Beschränkung gibt es dort nicht. Entsprechend wird dies vermutlich auch für 8-GB-Geräte von Apple gelten. Das Spiel wird mit einer Installationsgröße von gerade einmal 3,5 GB angegeben.
Das Spiel Sid Meier’s Civilization VII hat Probleme
Sid Meier’s Civilization VII weist bei Metacritic eine Durchschnittswertung von 79 Prozent auf, die Spielerbewertungen auf Steam liegen aktuell bei „Ausgeglichen“ und 53 Prozent positiven Bewertungen. Das Spiel hat entsprechend Probleme und das Ansehen der Marke hat seit dem Release im Februar 2025 gelitten. In den letzten Monaten sind die Entwickler auf Spieler-Feedback zwar bereits eingegangen, bis jetzt hat sich die Stimmung aber noch nicht ins Positive gedreht.
Apps & Mobile Entwicklung
Resident Evil Requiem unter Linux: Erfahrungen
So gut Resident Evil Requiem technisch unter Windows auch ist, technische Probleme begleiten das Windows-Spiel unter auf dem Linux-Desktop: Nur mit AMD Radeon und damit auch im Steam Deck läuft es rund, Nvidia und Intel schwächeln noch.
Auf dem Steam Deck gut spielbar
Die gute Nachricht zuerst: Resident Evil Requiem läuft auf dem Steam Deck – und das ganz ohne offizielle Steam-Deck-Kompatibilität.
In den ersten 60 bis 90 Minuten Spielzeit liegt die Framerate in der Regel über 45 FPS mit minimalen Einstellungen. Lediglich das Upscaling musste von Hand von FSR 1 auf FSR 3 geschaltet werden. Alles weitere hat der Titel korrekt der Leistung der Konsole entsprechend eingestellt.
Trotz der niedrigen Settings, der geringen Auflösung und des Upscalings sieht das Spiel auf dem keinen Display des Steam Deck sehr gut aus. Es spielt sich flüssig, nur ab und an spürt man einen kleinen Ruckler, der aber den Spielspaß nicht trübt. Was die Gründe für die fehlende Freigabe seitens Steam sind, erschließt sich an der Stelle nicht.
Große Probleme auf dem Linux-Desktop
Für den Ersteindruck von Resident Evil Requiem auf dem Linux-Desktop kommt ein CachyOS-System mit aktuellem Patch-Stand zum Einsatz. Angetrieben wird das System von einem Ryzen 7 7700X, 32 GB DDR5-6000 und aktuellen Grafikkarten aller drei großen Hersteller. Software-Basis bilden der Linux Kernel 6.19, Mesa 26.0.1 und Nvidia 590.48.01. Als Proton dient die angepasste CachyOS-Version.
AMD Radeon RX 9070
Grundsätzlich läuft Resident Evil Requiem gut mit der Radeon. Die Performance stimmt und ist nah dran an Windows. Doch ein wesentliches Feature fehlt: Raytracing. Das Spiel blendet die Option gar nicht erst im Menü ein. Dafür lässt sich FSR 4 problemlos erzwingen. Nötig bleibt dafür weiterhin ein angepasstes Proton.
Nvidia GeForce RTX 5070
Die GeForce-Karte bereitet unter Linux hingegen mehr Sorgen. Nicht nur, dass auch hier Raytracing nicht zur Verfügung steht; es gibt auch zahlreiche Bildfehler, welche ein Spielen unmöglich machen. Auch muss der Titel in puncto Performance deutlich Feder lassen im Vergleich zu Windows.
Intel Arc B580
Bei Intel hingegen sieht die Sache anders aus und dennoch schlechter. Zum einen steht Raytracing, wie auch auf den anderen Grafikkarten, nicht zur Verfügung. Im Gegensatz zu Nvidia läuft Resident Evil auf der Battlemage-Karte ohne Grafikfehler. Doch was das Ganze unspielbar macht, ist die Performance. Selbst mit minimalen Einstellungen und dem Einsatz von Upscaling kommt man kaum in den unteren zweistelligen FPS-Bereich.
Fazit
Resident Evil Requiem mag ein gutes Spiel sein, doch Linux-Spieler müssen sich noch gedulden – je nachdem auf welcher Plattform man unterwegs ist.
Das Steam Deck bietet aktuell wohl die beste Erfahrung um den Titel in Relation zu Hardware unter Linux zu spielen. Auch mit einer AMD-Grafikkarte kann man weitestgehend unbesorgt spielen – wenn man auf Raytracing verzichten kann. Für Nvidia- und Intel-Nutzer heißt es hingegen noch warten: Während Nvidia die Probleme wohl mit einem Treiberupdate wird lösen können, wird es vermutlich mit Intel Arc noch länger dauern.
Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.
Apps & Mobile Entwicklung
Massenüberwachung und autonome Waffen: Wie OpenAI den Pentagon-Vertrag von Anthropic übernimmt
Die Trump-Administration eskaliert den Streit um KI-Massenüberwachung und autonome Waffen: Anthropic wird als Lieferketten-Risiko eingestuft und soll aus den Systemen des US-Kriegsministeriums verschwinden. Die offene Lücke besetzt jetzt OpenAI. Öffentlich wird nun diskutiert, welche Zugeständnisse dafür nötig waren.
Trump beendet Verhandlungen, Hegseth eskaliert den Konflikt
Dass sämtliche US-Bundesbehörden keine Anthropic-Modelle mehr verwenden soll, erklärte am späten Freitagnachmittag zunächst US-Präsident Donald Trump. Nun läuft eine sechsmonatige Übergangsfrist, in der etwa das Kriegsministerium Zeit hat, um die KI-Systeme zu ersetzen. Trump bezeichnete Anthropic als vermeintlich linke und woke Firma, von der sich das US-Militär nicht vorschreiben lasse, wie es Kriege zu führen habe.
Wie die Journalisten Kevin Roose und Casey Newton im Hard-Fork-Podcast berichten, erfolgte Trumps Posting zu einem Zeitpunkt, als Anthropic und das Kriegsministerium im Hintergrund noch verhandelten. Die Gespräche waren damit beendet. Für Anthropic-Mitarbeitende wirkte es zu diesem Zeitpunkt trotzdem wie eine letztlich zufriedenstellende Lösung, weil Trump weder die Einstufung als Lieferkettenrisiko noch den Defense Production Act erwähnte – das waren die massiven Drohungen in diesem Konflikt.
Kurz nach Trump legte aber US-Kriegsminister Peter Hegseth nach. Er verkündete, Anthropic als Lieferkettenrisiko für die Nationale Sicherheit einzustufen. „Mit sofortiger Wirkung dürfen keine Auftragnehmer, Lieferanten oder Partner, die mit dem US-Militär Geschäfte machen, kommerzielle Aktivitäten mit Anthropic durchführen“, so Hegseth.
Inwieweit sind Google und Amazon betroffen?
Damit erfolgte also die Eskalation. Hätte die US-Administration ausschließlich die Verträge beendet, wäre es ein finanzieller Schaden für Anthropic gewesen, der aber keine Auswirkungen auf das Alltagsgeschäft hat. Indem Anthropic nun als Lieferkettenrisiko klassifiziert ist, ändert sich das. Relevant ist das vor allem für Amazon und Google. Beide Big-Tech-Konzerne sind mit zweistelligen Milliarden-Beträgen in Anthropic investiert und stellen die Cloud-Computing-Kapazitäten für das KI-Unternehmen bereit. Gleichzeitig erfüllen diese aber auch Aufträge für das Pentagon.
Interessant ist, wie Anthropic die Auswirkungen der Lieferkettenrisiko-Einstufung einordnet. Für Privatnutzer soll diese keine Konsequenzen haben. Bei Unternehmen, die Verträge mit dem Pentagon haben, ist der Einsatz von Claude-Modellen nur unterbunden, wenn an Aufträgen für das Pentagon gearbeitet wird. Außerhalb der Pentagon-Abkommen können betroffene Unternehmen wie gehabt die Anthropic-Systeme verwenden.
Nach Lesart von Anthropic müssten die Cloud-Anbieter also lediglich sicherstellen, dass Claude-Modelle nicht die Pentagon-Aufträge involviert sind. Aufwändig, aber machbar. Folgt man hingegen der Lesart des Kriegsministeriums, müsste die Zusammenarbeit hingegen komplett beendet werden, wenn Amazon und Google weiterhin Dienste für das Pentagon anbieten wollen.
Anthropic will gegen die Lieferkettenrisiko-Einstufung klagen
In einer Stellungnahme bedauert Anthropic derweil, dass man sich nicht mit dem Kriegsministerium auf einen Vertrag einigen konnte. Die Ausnahmen für autonome Waffen und Massenüberwachung wären derzeit ohnehin nicht mit US-Recht vereinbar. Und vor allem für autonome Waffen würden die Modelle schlicht noch nicht zuverlässig genug arbeiten.
Gegen die Einstufung als Lieferkettenrisiko will man Klage einreichen. Dass ein US-Unternehmen so klassifiziert wäre, sei „rechtlich unlauter und ein gefährlicher Präzedenzfall für alle Unternehmen, die mit der US-Regierung verhandeln“. Bislang nutzten US-Administrationen dieses Mittel für chinesische Unternehmen wie Huawei oder russische Dienste wie Kaspersky Labs.
OpenAI nutzt Lücke und wird massiv kritisiert
Während Anthropic den Konflikt mit der Klage weiterführen will, hat OpenAI noch am Freitagabend bekanntgegeben, ein Abkommen mit dem US-Kriegsministerium abgeschlossen zu haben. Für das Pentagon will man eine angepasste Version der Modelle bereitstellen, die auch für den Umgang mit vertraulichen und klassifizierten Informationen freigegeben sind.
Sam Altman erklärte auf X, dass OpenAIs Vertrag auch die Ausnahmen für Massenüberwachung, das Steuern autonomer Waffen sowie automatisierte Entscheidungen mit weitreichenden Konsequenzen – also etwa Social-Credit-Systeme. Mit dem Kriegsministerium gebe es in diesen Bereichen auch keinen Dissens.
Die Kritik an diesem Abkommen ist dennoch enorm, in sozialen Medien trendete die Forderung, die ChatGPT-Abonnements zu kündigen. Seitdem sind OpenAI und Sam Altman vor allem um Schadensbegrenzung bemüht.
Kernkonflikt: Massenüberwachung und Steuerung autonomer Waffen technisch oder rechtlich ausschließen?
Der Kern des Konflikts ist die Frage, wie tief die Restriktionen in den KI-Systemen verankert sein müssen. Anthropic will Massenüberwachung im Inland sowie Steuerung autonomer Waffennutzung technisch ausschließen, während OpenAI zwar auch auf Sicherheitsrichtlinien hinweist, grundsätzliche aber den Vertrag als Instrument nutzt, um bestimmte Einsatzzwecke auszuschließen.
Anthropics Punkt ist aber, dass juristische Klauseln sich weiter auslegen oder schlicht missachten lassen. Verträge sind also keine Garantien. Die Auszüge aus dem Vertragstext, die OpenAI veröffentlicht hat, belegt diesen Vorwurf nun nach der Sichtweise von Kritikern.
Was laut dem Hard-Fork-Podcast aber wichtig bei der Bewertung der Verträge ist: Noch herrscht ein hohes Ausmaß an Unsicherheit über die Details. Vorsicht ist also angebracht. Es zeichnet sich aber ab, dass die Debatten in nächster Zeit vor allem um die Frage drehen, inwieweit rechtliche und vertragliche Vorgaben geeignet sind, um die Fähigkeiten von KI-Modellen einzuschränken. Was unter „lawful use“ – also rechtmäßiger Nutzung – zu verstehen ist, ist dabei einer der Knackpunkte.
xAI als weitere Alternative
Dass Anthropic als Lieferkettenrisiko eingestuft wird, bedauert Sam Altman. Während OpenAI also Anthropic tendenziell unterstützt, positioniert sich Elon Musk öffentlich voll auf Linie des Pentagon. Er und sein KI-Unternehmen xAI profitieren aber ebenfalls von dem Streit, künftig soll es auch eine angepasste Grok-Version für das Militär geben.
In mehreren US-Bundesbehörden bestehen aber enorme Zweifel, ob man Elon Musks KI-Dienste tatsächlich in klassifizierten Netzwerken nutzen will, berichtet das Wall Street Journal. Zu groß ist die Sorge vor Sicherheitsbedenken. Systemische Risiken würden etwa drohen, weil Grok übermäßig gefällig („sycophantic“) und zu anfällig für Manipulationen sei.
Als warnendes Beispiel nennen Vertreter der US-Regierung die rund um den Jahreswechsel veröffentlichte Bildfunktion in Grok, mit denen Nutzer massenhaft sexualisierter Bilder von Frauen und sogar Kindern erstellten. Dieser Vorfall zeige, wie Grok von feindlichen Akteuren ausgenutzt werden könnte.
US-Militär nutzt Claude-Modelle im Iran-Krieg
Im seit Samstag laufenden Iran-Krieg kommen Anthropics Claude-Modelle weiterhin zum Einsatz. Das gilt auch für das U.S. Central Command im Mittleren Osten, berichtet das Wall Street Journal unter Verweis auf Personen, die mit den Vorgängen vertraut sind.
Obwohl die Spannungen zwischen Kriegsministerium und Anthropic in den letzten Wochen bereits zunahmen, blieben die KI-Tools dem Bericht zufolge fest in die militärischen Abläufe integriert. Verwendet werden diese demnach für Lageanalysen, Zielidentifikationen und Simulationen von Gefechtsszenarien.
Apps & Mobile Entwicklung
Copilot Task: Der Agent für Windows 11, der autonom Aufgaben erledigt
Mit Copilot Task soll sich der KI-Assistent zum Agenten verwandeln, der eigenständig Aufgaben erfüllt. Microsoft hat nun angekündigt, dass man eine Forschungsvorschau-Version für die ersten Windows-11-Nutzer freigeschaltet hat.
Helfen soll Copilot Task insbesondere bei alltäglichen Routineaufgaben, indem der Agent diese möglichst autonom und eigenständig erledigt. Zu den Aufgaben zählen etwa die Organisation des E-Mail-Postfachs, das Überwachen von Preisentwicklungen bei bestimmten Produkten oder das Erstellen eines Wochenplans.
Zusätzlich kann der Agent Dokumente erstellen und dafür die Inhalte aus verschiedenen Datenquellen wie E-Mails oder Office-Dokumenten besorgen. Planen lassen sich mit Copilot Task auch Termine und Events. Wie so oft nennt auch Microsoft eine Reise als Beispiel, bei der der Agent eigenständig die Preise von Hotels, Flügen und Mietwägen im Blick behält und zu günstigen Zeitpunkten bucht.
Copilot Task ist Microsofts Wette für das agentische Zeitalter
Im Kern beschreibt Microsoft damit ein System, das ähnliche Funktionen bietet wie aktuell gehypte Agenten-Systeme – also etwa Anthropics Claude Code oder OpenClaw. Microsoft nennt aber vor allem alltägliche Aufgaben, bis dato für den Einsatz von Agenten-Systemen populäre Bereiche wie Coding tauchen in der Beschreibung nicht auf.
Wie die anderen Agenten arbeitet auch Copilot Task im Hintergrund. Das System nutzt eigenständig Computer-Ressourcen und einen Browser, um autonom Apps und Dienste zu steuern. Copilot Task ist allerdings tief in Windows 11 verankert. Die Vorgehensweise hat Microsoft bereits beschrieben, als man im November 2025 das agentische Zeitalter ankündigte. Im aktuellen Blog-Beitrag beschreibt Microsoft Copilot Task nun als „unsere Wette“, um die „leistungsfähigste und nützlichste KI“ für alle zugänglich zu machen. Die Ambitionen sind also groß, man will die führenden KI-Entwickler attackieren.
Microsofts Agenten-Pläne sorgten aber zumindest bei Enthusiast-Nutzern bislang für wenig Begeisterung. Statt an KI-Funktionen zu arbeiten, solle sich der Konzern sich auf Kernfunktionen von Windows 11 konzentrieren, lautet einer der Kritikpunkte. Nach dem Recall-Debakel bestehen zudem Sicherheitsbedenken; die Frage ist, ob Microsoft das KI-System architektonisch korrekt umsetzt.
Neben Copilot Task plant Microsoft noch weitere KI-Neuerungen für Windows 11. Zusätzlich will der Konzern die Kernfunktionen des Betriebssystems überarbeiten.
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 2 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
