Connect with us

Künstliche Intelligenz

Warten auf neue AirTags: Was die neuen können sollen – aktuelle verbilligt


Gut viereinhalb Jahre nach der Vorstellung der AirTags, Apples sehr populärer Bluetooth- und Ultra-Wideband-Tracker, steht endlich das Release einer zweiten Version an. Davon geht zumindest die Gerüchteküche aus. Denkbar ist, dass Apple die neuen Geräte bereits Anfang September zusammen mit neuen iPhone-17-Modellen präsentiert. Dafür spricht unter anderem, dass große Händler die Tracker zwischenzeitlich deutlich verbilligt hatten. Zudem gibt es Codeleaks in iOS 18.6 und weitere Hinweise.

So verkauften sowohl Amazon Deutschland als auch die Elektronikfachmärkte Saturn und MediaMarkt der Ceconomy-Gruppe das Viererpack AirTags bis zum Wochenende für 89 Euro, also 22,25 Euro das Stück. Zwar ist die Kampagne inzwischen abgelaufen und Ceconomy auf den Preis von 107,99 Euro und Amazon auf den Preis von 94 Euro zurückgegangen. Doch eine gleichzeitige Aktion zweier so großer Händler spricht für eine Form von Abverkauf.

Tatsächlich gibt es den Schnäppchenpreis bei einzelnen kleineren Resellern noch, wie der heise-Preisvergleich (ab 88,83 €) zeigt. Apples Originalpreis liegt hingegen weiterhin bei 129 Euro für das Viererpack. Einziger Vorteil beim Kauf beim Hersteller: Dort bekommt man kostenlos eine Gravur dazu, mit der man die AirTags dann leichter unterscheiden kann. Der Handel bietet diese leider nicht an.

Bereits im Juni zeigte sich in einer Beta von iOS 18.6, dass Apple neue AirTags plant. Enthaltener Code besagt, dass das Betriebssystem bereits kompatibel zu dem noch unveröffentlichten Modell ist. Lobenswert: Offenbar plant Apple keinen Zwang zum Upgrade auf iOS 26, um die neuen Tracker verwenden zu können.

Bei den AirTags 2 wird unter anderem eine längere Batterielaufzeit mit früheren Warnungen, eine erhöhte Verbindungsstabilität zum „Wo ist?“-Netzwerk samt UWB-Chip der zweiten Generation mit Präzisionssuche ab 60 Meter (statt 15) sowie Verbesserungen bei Datenschutz und Sicherheit erwartet. Letzteres ist für Menschen, die die Tracker als Diebstahlschutz verwenden, nicht unbedingt gut. So sollen die Geräte „tamper-resistant“ sein, also beispielsweise erkennen, dass der Lautsprecher deaktiviert wurde. Ob die AirTags 2 wiederaufladbar sein werden oder weiter Knopfzellen nutzen, ist ebenso unklar wie der vorgesehene Preis. Der könnte bei 35 Euro pro Stück liegen.


(bsc)



Source link

Künstliche Intelligenz

GPT-5 zu unfreundlich: OpenAI setzt wieder auf 4o als Standardmodell


GPT-5 trifft aus Sicht einiger Nutzer nicht den richtigen Ton. Das große Update des Large Language Models (LLM) von OpenAI agiert manchem Anwender nicht freundlich genug, ist in Forenbeiträgen zu lesen. Dieser und weitere Punkte haben OpenAI jetzt offenbar dazu bewogen, das Standardmodell für zahlende Kunden vorerst wieder auf GPT-4o umzustellen. OpenAI-Chef Sam Altman verkündete die Änderung bei X. Sie ist auch in den Release Notes nachzulesen.

Zusammen mit dieser Änderung können Nutzer von GPT-5 jetzt auch manuell zwischen den Modi „Auto“, „Fast“ und „Thinking“ umschalten. Auch dies ist wohl eine Reaktion auf Kritik, weil der automatische Umschalter bei einigen nicht richtig funktionierte. Dieser sollte die Verwendung des Chatbots eigentlich erleichtern, wenn Anwender sich mit weniger Einstellmöglichkeiten auseinandersetzen müssen. Und OpenAI hat neue Konnektoren eingeführt, mit denen Nutzer die KI mit Diensten wie Google Docs verbinden können – allerdings vorerst nicht in Europa.

„Die meisten Anwender werden Auto wählen, aber die zusätzliche Auswahlmöglichkeit wird für einige Leute nützlich sein“, erläuterte Altman die Änderung beim Routing von GPT-5. Er gab in diesem Zusammenhang auch Begrenzungen des vor einer Woche vorgestellten Modells preis. So sei der Denken-Modus (Thinking) auf aktuell 3000 Nachrichten pro Woche begrenzt. Wer dies überschreitet, bekomme noch weitere Nachrichten über GPT-5 Thinking mini. Das Context Limit liege bei 196.000 Tokens. Je nach Nutzung müsse OpenAI bei OpenAI die Begrenzungen nochmal anpassen, so Altmann.

Neben 4o haben zahlende Nutzer jetzt auch über die Weboberfläche schnellen Zugriff auf weitere Modelle. Dort sind unter anderem o3, 4.1 und GPT-5 Thinking mini zu finden. Damit diese im Menü erscheinen, mussten wir beim Test aber in den Einstellungen erst „Show additional models“ aktivieren. 4.5 sei indessen nur für Pro-Nutzer, die den teureren Tarif zahlen, verfügbar, da es sehr viel Hardware-Leistung benötige.


Menü mit den Auswahlmöglichkeiten der GPT-Modelle

Menü mit den Auswahlmöglichkeiten der GPT-Modelle

Zahlende Kunden von OpenAI können jetzt über die Weboberfläche leicht auf ältere Modelle von GPT wechseln.

(Bild: ho)

Im Zusammenhang mit der Kritik an der „Persönlichkeit“ von GPT-5 erklärte Altman, dass OpenAI an einem Update arbeite, das das neue Modell „wärmer“ erscheinen lasse. Allerdings solle es auch nicht so „nervig“ werden wie GPT-4o. Eine Lehre, die man bei OpenAI aus der Kritik ziehe, sei, dass man in Zukunft die Persönlichkeit des Modells stärker durch den Nutzer anpassbar machen wolle, erklärte der OpenAI-Chef.

OpenAI verkündete außerdem neue Konnektoren für ChatGPT. Allerdings stehen diese vorerst nicht in Europa zur Verfügung. Plus-Nutzer können die Dienste Canva, Dropbox, HubSpot, Notion, Microsoft SharePoint und Microsoft Teams mit der KI verbinden. Pro-Nutzer zusätzlich GitHub. Die sogenannten Connectors seien noch in der Beta-Phase und über die Einstellungen aktivierbar. Sie erlauben es der KI, Zugriff auf die Nutzerdaten bei den jeweiligen Diensten zu nehmen, sodass Transfers per Hand entfallen. Konnektoren für Gmail, Google Calendar und Google Contacts sollen folgen.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

KI-Update: Wahn, Abhören, BND, Reddit und Crawler, KI am BER, Gold für OpenAI


Chatbots können Menschen in wahnhafte Gedankenspiralen ziehen. Das Wall Street Journal analysierte zehntausende öffentlich geteilte Chat-Protokolle und fand mehrere Dutzend Fälle, in denen ChatGPT seinen Gesprächspartnern versicherte, sie stünden wirklich in Kontakt mit Außerirdischen oder könnten eine biblische Apokalypse vorhersagen. Oftmals bestätigte der Chatbot dabei, die Nutzer seien nicht „verrückt“, sondern stünden vor einem großen Fortschritt.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Die Ursache liegt im Design der Systeme: Chatbots sind darauf trainiert, übermäßig zustimmend und schmeichelhaft zu sein. Sie werden so zu einer gefährlichen Echokammer, die abwegige Theorien nicht hinterfragt, sondern bestätigt und verstärkt. OpenAI, ein KI-Modellhersteller, teilte mit, es handele sich um seltene Fälle. Das Unternehmen entwickle bereits Werkzeuge, um psychischen Stress besser zu erkennen. Anthropic, ein weiterer KI-Anbieter, will die Anweisungen für seinen Chatbot Claude angepasst haben.

Informatiker der Penn State University können Mobiltelefone aus sechs Metern Entfernung abhören. Sie nutzen ein Millimeterradar, das winzige Vibrationen an der Oberfläche des Telefons misst, die durch den Hörer-Lautsprecher entstehen. Die stark verrauschten Daten interpretiert eine künstliche Intelligenz.

Die Forscher modifizierten das Open Source KI-Spracherkennungsmodell WISPR mit einer Low-Rank Adaption-Technik. So konnten sie WISPR die Interpretation der Radardaten antrainieren, ohne das Sprachmodell neu zu erstellen. Die Genauigkeit liegt bei 60 Prozent – höher als beim Lippenlesen mit 30 bis 40 Prozent. Der Wortschatz ist allerdings auf 10.000 Wörter beschränkt.

Der Bundesnachrichtendienst sammelt täglich riesige Mengen fremdsprachigen Materials aus Abhörstationen und Agentenberichten. KI-gestützte Übersetzungsprogramme wie ChatGPT oder DeepL würden sich anbieten, doch deren Server stehen oft im Ausland. Ein Abfluss sensibler Daten droht.

Deshalb nutzt der BND weiterhin überwiegend menschliche Übersetzer und eigene Übersetzungstools. Der Sprachdienst umfasst eine dreistellige Zahl von Festangestellten und freien Kräften. Längere Texte können Wochen in der Bearbeitung beanspruchen. Die Übersetzungstools dienen meist nur der groben inhaltlichen Orientierung. Besonders kritisch ist die „Vorbewertung“, mit der Übersetzer die Relevanz der Inhalte einschätzen. Ohne vollständige Übersetzung könnten wichtige Informationen übersehen werden.

Reddit, eines der größten Internetforen, hat die Wayback-Machine des Internet-Archives von der Seite fast komplett ausgesperrt. Der Grund: KI-Unternehmen nutzen das Archiv als Umweg, um an Reddit-Daten zu kommen, ohne dafür zu bezahlen. Reddit schließt mit KI-Firmen Lizenzabkommen ab und sperrt Unternehmen aus, die nicht zahlen.

Der Vorwurf lautet, dass Unternehmen die Wayback-Machine nutzen, um das Verbot zu umgehen. Statt direkt auf Reddit zuzugreifen, holen sie sich die Trainingsdaten über das Internetarchiv. Reddit könnte den Zugang wieder genehmigen, wenn das Internet-Archive ebenfalls KI-Crawler aussperrt. Ein Reddit-Sprecher fordert zudem, dass die Wayback-Machine Nutzerrechte besser respektiert – gelöschte Reddit-Inhalte bleiben dort oft weiter einsehbar.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Seit Mai können Reisende am Berliner Flughafen BER ihre nächste Zugverbindung bei einer künstlichen Intelligenz erfragen. „Kiana“ heißt die digitale Helferin in einer interaktiven Säule auf der Zwischenebene von Terminal 1. Das System besteht aus Touchscreen, Lautsprecher und Mikrofon und beherrscht neun Sprachen.

Die Praxis zeigt Probleme: Die KI versteht oft erst beim dritten Anlauf, was gewünscht wird. Der Flughafen ist zu laut, die permanente Geräuschkulisse erschwert das Verstehen. Auch Kianas Sprachantworten sind nicht immer klar. Tickets verkaufen kann sie nicht – Reisende bekommen nur einen QR-Code zur DB-Navigator-App. Über 1000 Gespräche hat Kiana seit Mai geführt, etwa die Hälfte auf Englisch. Das Experiment läuft bis Oktober.

Ein KI-System von OpenAI hat bei der Internationalen Informatik-Olympiade 2025 eine Goldmedaille erzielt. Nur fünf der 330 menschlichen Teilnehmer schnitten besser ab – das bedeutet Platz sechs im Gesamtfeld. Das System hielt sich an dieselben Regeln: fünf Stunden Zeit und maximal 50 Einreichungen.

Der Schlüssel zum Erfolg war einfach: OpenAI trainierte kein spezielles Modell, sondern nutzte ein Ensemble aus allgemeinen Logikmodellen. Das Kernmodell war dasselbe, das kürzlich auch bei der Internationalen Mathematik-Olympiade Gold gewann. Letztes Jahr verpasste OpenAI noch knapp Bronze mit einer aufwändigen, handgefertigten Strategie.

Anthropic hat das Kontextfensters seines Modells Claude Sonnet 4 stark erweitert. Statt 200.000 Token kann das System jetzt eine Million Token verarbeiten. Entwickler können nun ganze Codebasen oder umfangreiche Dokumentensammlungen in einem einzigen Schritt analysieren lassen.

Die Funktion ist in der öffentlichen Betaphase verfügbar, allerdings nur für Kunden mit höheren API-Limits. Der erweiterte Kontext hat seinen Preis: Für Eingaben über 200.000 Token verlangt Anthropic das Doppelte – sechs statt drei Dollar pro Million Token. „Prompt Caching“ und „Batch Processing“ können laut Anbieter bis zu 50 Prozent der Kosten sparen.

Nvidia, ein Chiphersteller, hat auf der Computergrafik-Konferenz SIGGRAPH seine Vision der „Physischen KI“ vorgestellt. Das Konzept verbindet künstliche Intelligenz mit Computergrafik, um Systeme zu schaffen, die in der realen Welt agieren können – von Robotern bis zu autonomen Fahrzeugen. Das Herzstück bildet neue Hardware auf Basis der Blackwell-Architektur.

Nvidia erstellt hochrealistische digitale Zwillinge, in denen KI-Systeme sicher lernen können, bevor sie in der echten Welt eingesetzt werden. Amazon, ein Onlinehändler, lädt beispielsweise CAD-Modelle neuer Produkte in das Nvidia-System und generiert über 50.000 synthetische Bilder. Diese trainieren KI-Modelle, die Roboterarme für Qualitätsprüfungen steuern.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(mali)



Source link

Weiterlesen

Künstliche Intelligenz

Azure App Testing: Zentrale Plattform für Last- und Funktionstests in der Cloud


Microsoft führt das Azure App Testing ein. Der Cloud-Dienst soll die Validierung von Web- und App-Anwendungen vereinfachen und beschleunigen. Er bündelt erstmals Lasttests und End-to-End-Webtests zentral im Azure Portal. Nutzer können sowohl funktionale als auch Performance-Tests in großem Maßstab durchführen, ohne eine eigene Testinfrastruktur aufbauen zu müssen. Azure App Testing kombiniert die Funktionen von Azure Load Testing und Playwright Testing in einer einheitlichen Testumgebung; Bereitstellung, Zugriffssteuerung und Abrechnung erfolgen jetzt über eine Plattform.

Lesen Sie auch

Entwicklungs- und QA-Teams können mit Frameworks wie Playwright, JMeter oder Locust Testläufe konfigurieren und ausführen. Mit an Bord sind ebenfalls KI-Features, die sowohl bei der Erstellung als auch bei der Auswertung von Tests helfen sollen. Hierzu gehören unter anderem eine automatische Fehlererkennung und konkrete Handlungsempfehlungen. Azure App Testing skaliert automatisch, damit sich auch realistische Traffic-Lasten aus verschiedenen Regionen simulieren lassen. Zudem führt der Cloud-Dienst plattform- und browserübergreifende Tests aus. Die Provisionierung und Wartung der Testumgebungen übernimmt Microsoft.

Nutzer von Azure Load Testing können ihre bestehenden Tests direkt weiter verwenden, während Nutzer von Playwright Testing laut Microsoft auf die neuen Playwright Workspaces migrieren sollten. Diese unterstützen für Tests Windows und Linux sowie Browser auf Chromium-, Firefox- und WebKit-Basis. Azure App Testing ist ab sofort im Azure-Portal verfügbar. Einen Überblick des Diensts und eine Anleitung zum ersten Start finden sich bei Microsoft in der Tech Community. Die Preise richten sich nach den verbrauchten Virtual User Hours (VUH).


(fo)



Source link

Weiterlesen

Beliebt