Connect with us

Entwicklung & Code

Arduino-Übernahme durch Qualcomm: Entscheidender Moment für die Maker-Community


Qualcomm Technologies verkündete am 7. Oktober 2025 eine Vereinbarung zur Übernahme von Arduino, dem beliebten italienischen Open-Source-Hardware- und Software-Unternehmen, das die Art und Weise revolutionierte, wie Millionen von Menschen mit Elektronik interagieren. Diese Nachricht führte zu großer Aufmerksamkeit durch die Elektronik-, Robotik- und Maker-Communities weltweit. Die Übernahme repräsentiert weit mehr als eine einfache Unternehmenstransaktion. Sie markiert die Konvergenz zweier vollkommen unterschiedlicher Welten: des basisdemokratischen Open-Source-Ethos der Maker-Bewegung und der hochmodernen, industriellen Chip-Design-Expertise eines der weltweit führenden Halbleiterunternehmen.


Michael Stal

Michael Stal

Prof. Dr. Michael Stal arbeitet seit 1991 bei Siemens Technology. Seine Forschungsschwerpunkte umfassen Softwarearchitekturen für große komplexe Systeme (Verteilte Systeme, Cloud Computing, IIoT), Eingebettte Systeme und Künstliche Intelligenz.

Er berät Geschäftsbereiche in Softwarearchitekturfragen und ist für die Architekturausbildung der Senior-Software-Architekten bei Siemens verantwortlich.

Der Deal macht Arduino zu einer unabhängigen Tochtergesellschaft von Qualcomm Technologies. Diese Struktur soll Arduinos unverwechselbare Identität, den Community-fokussierten Ansatz und die Open-Source-Philosophie bewahren und gleichzeitig Zugang zu Qualcomms enormen Ressourcen, fortschrittlichen Technologien und globaler Reichweite gewährleisten. Die Übernahme steht derzeit noch unter dem Vorbehalt behördlicher Genehmigungen und anderer üblicher Abschlussbedingungen, aber beide Unternehmen verfolgen bereits ehrgeizige Pläne, die versprechen, die Landschaft des Embedded Computing, der KI-Entwicklung und des Robotik-Prototyping neu zu gestalten.

Um die Tragweite dieser Übernahme zu verstehen, ist zunächst die Rolle von Arduino im Technologie-Ökosystem zu würdigen. Arduino entstand Anfang der 2000er Jahre in Italien aus einer einfachen, aber tiefgreifenden Mission: Elektronik und Programmierung für Künstler, Designer, Hobbyisten und alle anderen zugänglich zu machen, die neugierig auf die Schaffung interaktiver Objekte oder Umgebungen waren. Vor Arduino erforderte die Arbeit mit Mikrocontrollern erhebliche technische Expertise, teure Entwicklungswerkzeuge und eine steile Lernkurve, die alle außer den engagiertesten Enthusiasten oder professionellen Ingenieuren abschreckte.

Arduino veränderte das alles durch eine Kombination aus erschwinglicher Hardware, benutzerfreundlicher Software und umfangreichen Bildungsressourcen. Das ursprüngliche Arduino Uno Board mit seiner charakteristischen blauen Leiterplatte und weißen Steckverbindern avancierte zu einer Ikone der Maker-Bewegung. Im Herzen dieser Boards arbeiten Mikrocontroller von Unternehmen wie Atmel, das später Microchip Technology übernahm, die Arduino mit ihrer genialen Arduino Integrated Development Environment paarte. Diese IDE verwandelte die einschüchternde Welt der Embedded-Programmierung in etwas Zugängliches und nutzte eine vereinfachte Version von C++, die selbst Anfänger meistern konnten.

Die Auswirkungen waren geradezu revolutionär. In den letzten zwei Jahrzehnten kultivierte Arduino eine globale Community von mehr als dreiunddreißig Millionen aktiven Nutzern, die Studenten, Hobbyisten, Künstler, Ingenieure und Unternehmer umfasst. Diese Nutzer schufen alles von einfachen LED-Blink-Projekten bis hin zu ausgefeilten Robotern, Umweltüberwachungssystemen, interaktiven Kunstinstallationen und unzähligen Prototypen, die sich schließlich zu kommerziellen Produkten entwickelten. Arduino-Boards haben sich weltweit zur Standardausrüstung in Klassenzimmern, Makerspaces, Forschungslaboren und Startup-Inkubatoren entwickelt.

Das Arduino-Ökosystem erstreckt sich weit über die Boards hinaus. Es umfasst Tausende kompatible Sensoren, Aktuatoren und Erweiterungsplatinen, die man als Shields kennt und huckepack auf Arduino-Boards stapelt, um Fähigkeiten wie drahtlose Kommunikation, Motorsteuerung oder Display-Schnittstellen hinzuzufügen. Zusätzlich bedeutet Arduinos Open-Source-Ansatz, dass die Hardware-Designs frei verfügbar sind, was eine ganze Industrie von Arduino-kompatiblen Boards und Klonen hervorbrachte, die den Zugang zu Elektronik-Bildung und Prototyping weiter demokratisierten.

Auf der anderen Seite dieser Übernahme steht Qualcomm, ein Unternehmen, das den Gipfel modernen Halbleiterdesigns und der drahtlosen Technologie repräsentiert. Qualcomm hat sein Hauptquartier in San Diego, Kalifornien, und baute sein Imperium hauptsächlich auf Mobile Computing auf, wobei es durch seine Snapdragon-Marke zum Synonym für Smartphone-Prozessoren avancierte. Die Chips des Unternehmens treiben Milliarden von Geräten weltweit an, und seine Modem-Technologie spielte eine instrumentale Rolle in der Evolution der Mobilfunkkommunikation von 3G über 5G und darüber hinaus.

Allerdings befindet sich Qualcomm an einem strategischen Scheideweg. Der Smartphone-Markt, der den primären Umsatztreiber des Unternehmens darstellte, hat seine Reife erreicht und das Wachstum hat sich demzufolge erheblich verlangsamt. Darüber hinaus sieht sich Qualcomm Herausforderungen von Großkunden wie Apple gegenüber, das zunehmend eigene Chips designt, einschließlich der Entwicklung eigener Modem-Technologie, um Qualcomms Chips in iPhones zu ersetzen. Diese Marktdynamiken zwangen Qualcomm, eine aggressive Diversifizierung in neue Märkte zu verfolgen, wo seine Expertise in energieeffizienter Datenverarbeitung, drahtloser Konnektivität und zunehmend auch künstlicher Intelligenz das Wachstum antreibt.

Diese Diversifizierungsstrategie führte Qualcomm dazu, sich stark auf mehrere aufstrebende Bereiche zu konzentrieren, darunter Automotive Computing für autonome Fahrzeuge, industrielle Internet-of-Things-Anwendungen (IoT) und Robotik. Im jüngsten Quartal machten Qualcomms IoT-Geschäft, das Chips für industrielle und Robotikаnwendungen umfasst, kombiniert mit seiner Automotive-Sparte, dreißig Prozent des gesamten Chip-Umsatzes des Unternehmens aus. Dies repräsentiert substanziellen Fortschritt bei der Reduzierung der Abhängigkeit von Smartphones, aber Qualcomm erkennt, dass die Eroberung dieser neuen Märkte andere Ansätze erfordert als den Verkauf von Chips in Millionenstückzahlen an etablierte Smartphone-Hersteller.

Allein im vergangenen Jahr übernahm Qualcomm zwei weitere Unternehmen speziell zur Stärkung seiner Position in Edge Computing und Robotik: Foundries.io, das sicheres Device-Management und Over-the-Air-Update-Fähigkeiten für IoT-Geräte bereitstellt, und Edge Impulse, eine Plattform für die Entwicklung und Implementierung von Machine-Learning-Modellen auf Edge-Geräten. Die Arduino-Übernahme repräsentiert die dritte Säule dieser Strategie und konzentriert sich darauf, die Herzen und Köpfe von Entwicklern ganz am Anfang ihrer Produktentwicklungsreise zu gewinnen.

Auf den ersten Blick mag die Vermählung eines Halbleiter-Riesen und einer beliebten Maker-Plattform ungewöhnlich erscheinen, aber die strategische Logik zeigt sich klar, wenn man die Herausforderungen beider Unternehmen und die Chancen betrachtet, die diese Union schafft. Für Qualcomm löst die Übernahme mehrere kritische Probleme gleichzeitig und öffnet Türen, die sonst schwierig zu erreichen wären.

In erster Linie verschafft Arduino Qualcomm direkten Zugang zu Entwicklern auf Basis-Ebene. Nakul Duggal, Qualcomms Group General Manager für Automotive, Industrial und Embedded IoT, artikulierte das Denken des Unternehmens in einem Interview und erklärte, dass das Ziel darin liege, mit Entwicklern während der Prototyping- und Proof-of-Concept-Phasen der Produktentwicklung zu interagieren. Die Hoffnung besteht darin, dass Qualcomm durch die Positionierung als bevorzugte Plattform für Experimente und Lernen Kaufentscheidungen beeinflussen kann, wenn diese Projekte zu kommerziellen Produkten reifen, die Chips im großen Maßstab benötigen.

Das repräsentiert eine signifikante Verschiebung in Qualcomms Go-to-Market-Strategie. Traditionell verkaufte Qualcomm seine Chips in großen Mengen an etablierte Unternehmen und Original Equipment Manufacturer (OEM). Dieser Ansatz funktioniert gut für High-Volume-Produkte wie Smartphones, schafft aber eine Barriere für kleinere Developer, Start-ups und Forscher, die nur wenige Chips für Prototyping oder kleine Produktionsläufe benötigen. Arduinos Vertriebsmodell, das Entwicklungsboards weltweit über Online-Händler und Elektronik-Distributoren zu günstigen Preisen leicht verfügbar macht, löst dieses Problem elegant.

Der Zeitpunkt ist besonders angesichts der Explosion des Interesses an Robotik und Edge-KI gut gewählt. Wie Duggal bemerkte, hofft Qualcomm, letztlich humanoide Roboter mit Energie zu versorgen, die Rechenfähigkeiten ähnlich denen benötigen, die selbstfahrende Autos brauchen. Diese Anwendungen erfordern signifikante KI-Verarbeitungsleistung, ausgefeilte Sensorintegration und Echtzeit-Steuerungsfähigkeiten. Konkurrenten wie Nvidia haben jedoch bereits bedeutende Fortschritte in diesem Bereich gemacht, teilweise indem sie ihre Roboter-Development-Kits für individuelle Entwickler und Forscher für nur 249 Dollar leicht zugänglich machten. Die Arduino-Übernahme erlaubt Qualcomm, direkt in diesem Bereich zu konkurrieren und dabei Arduinos etablierte Community und Reputation zu nutzen.

Für Arduino bietet die Übernahme Ressourcen und Fähigkeiten, die unabhängig schwierig oder unmöglich zu erreichen wären. Der Zugang zu Qualcomms fortschrittlichen Chipdesigns, besonders für KI-Beschleunigung und High-Performance-Computing, erlaubt Arduino, sich über den Bereich einfacher Mikrocontroller-Boards hinaus in anspruchsvollere Anwendungen zu erweitern. Qualcomms globale Lieferketten-Beziehungen, Fertigungsexpertise und finanzielle Ressourcen können Arduino dabei helfen, seine Operations zu skalieren und neue Märkte zu erreichen, besonders in industriellen und kommerziellen Anwendungen durch Arduinos professionelle Produktlinien.

Beide Unternehmen betonen, dass Arduino seine Unabhängigkeit, Open-Source-Philosophie und das Engagement zur Unterstützung von Mikrocontrollern mehrerer Halbleiterlieferanten behalte. Das ist entscheidend, um das Vertrauen innerhalb der Arduino-Community aufrechtzuerhalten, die die Neutralität und Zugänglichkeit der Plattform schätzt. Arduino-CEO Fabio Violante betonte diesen Punkt und erklärte, dass die Zusammenarbeit mit Qualcomm Arduino erlaube, „unser Engagement für Zugänglichkeit und Innovation zu verstärken“, während man den Werten treu bleibe, die der Community immer am wichtigsten waren.

Um das Potenzial dieser Partnerschaft zu demonstrieren, kündigten Qualcomm und Arduino simultan das Arduino UNO Q Board an, ein revolutionäres neues Board, das einen dramatischen Sprung nach vorn repräsentiert. Dieses Board verkörpert die Fusion von Arduinos Zugänglichkeit mit Qualcomms technologischer Raffinesse und schafft eine Entwicklungsplattform, die die Lücke zwischen einfachen Mikrocontroller-Projekten und ausgefeilten Computing-Anwendungen überbrückt.

Das UNO Q verfügt über das, was Arduino als „Dual-Brain“-Architektur beschreibt: Es kombiniert zwei unterschiedliche Verarbeitungssysteme auf einem einzigen Board, das den vertrauten Arduino-UNO-Formfaktor beibehält. Diese Formfaktor-Kompatibilität bedeutet, dass das UNO Q mit vielen existierenden Arduino-Shields funktioniert und die Kompatibilität mit dem riesigen Ökosystem Arduino-kompatibler Hardware-Zubehörteile bewahrt, die man über die Jahre entwickelt hat.


Arduino Q Uno Board

Arduino Q Uno Board

Das Arduino Q Uno Board vereinigt einen Linux-fähigen Qualcomm Dragonwing und einen leistungsfähigen Mikrocontroller

(Bild: Arduino)

Das erste „Gehirn“ besteht aus dem Qualcomm Dragonwing QRB2210-Prozessor, einem ausgefeilten System-on-Chip, das Fähigkeiten auf die Arduino-Plattform bringt, die man zuvor mit Single-Board-Computern wie dem Raspberry Pi assoziierte. Dieser Prozessor verfügt über eine Quad-Core-ARM-CPU, eine Adreno-GPU für Grafikbeschleunigung, duale Bildsignalprozessoren für Kamera-Unterstützung und dedizierte Neural-Processing-Units (NPUs) für KI-Beschleunigung. Mit einem vollständigen Linux-Debian-Betriebssystem kann der Dragonwing-Prozessor Aufgaben wie Computer Vision bewältigen, bei denen Kameras Bilder erfassen, die dann KI-Modelle analysieren, um Objekte zu identifizieren, Anomalien oder Muster zu erkennen. Er unterstützt Standardschnittstellen, einschließlich USB-C für Stromversorgung und Daten, HDMI für Display-Ausgabe, Ethernet für Netzwerkkonnektivität sowie Audio-Ein- und -Ausgabe.

Das zweite „Gehirn“ ist ein STMicroelectronics STM32U585-Mikrocontroller, der Echtzeit-Steuerungsaufgaben mit dem präzisen Timing von Mikrocontrollern bewältigt. Das erweist sich als entscheidend für Anwendungen wie Robotik, in der Motoren exaktes Timing beim Steuern benötigen, oder wie industrielle Automatisierungssysteme, bei denen das Lesen von Sensoren und die Steuerung von Aktuatoren mit minimaler Latenz erfolgen muss. Durch die Einbeziehung sowohl eines leistungsstarken Linux-fähigen Prozessors als auch eines Echtzeit-Mikrocontrollers auf demselben Board eliminiert das UNO Q die Notwendigkeit, separate Boards miteinander zu verbinden, was sowohl Hardware-Design als auch Softwareentwicklung vereinfacht.

Das UNO Q kommt in zwei Konfigurationen, um verschiedene Bedürfnisse und Budgets zu bedienen. Das Basismodell verfügt über zwei Gigabyte RAM und sechzehn Gigabyte eMMC-Flash-Speicher zum Preis von 44 Dollar in den USA oder 39 Euro in Europa. Eine leistungsfähigere Version bietet vier Gigabyte RAM und zweiunddreißig Gigabyte Speicher für 59 Dollar oder 53 Euro. Das Basismodell steht für sofortige Vorbestellung zur Verfügung, wobei der Versand am 25. Oktober 2025 beginnt, während die höherwertige Konfiguration im November 2025 zur Bestellung verfügbar sein soll – mit erwartetem Versand bis Ende des Jahres.

Diese Spezifikationen positionieren das UNO Q als bemerkenswert leistungsfähige und dennoch erschwingliche Plattform. Die Einbeziehung von substanziellem Arbeitsspeicher und Speicherplatz erlaubt Entwicklern, ausgefeilte Anwendungen laufen zu lassen, Trainingsdaten für Machine-Learning-Modelle zu speichern und komplexe Multimedia-Verarbeitung zu bewältigen. Die KI-Beschleunigungsfähigkeiten bedeuten, dass Entwickler neuronale Netze direkt auf dem Board für Aufgaben wie Objekterkennung, Sprachverarbeitung oder vorausschauende Wartung laufen lassen können, ohne Cloud-Konnektivität zu benötigen, was für Anwendungen essenziell ist, bei denen Datenschutz, Latenz oder Zuverlässigkeit Bedenken darstellen.

Hardware allein macht keine erfolgreiche Entwicklungsplattform aus. Da eine Dual-Prozessor-Architektur des UNO Q Komplexität einführt, die Entwickler einschüchtern könnte, schuf Arduino eine völlig neue Entwicklungsumgebung namens Arduino App Lab. Diese integrierte Entwicklungsumgebung repräsentiert eine signifikante Evolution von der klassischen Arduino-IDE, die der Community zwei Jahrzehnte lang diente.

App Lab soll die Entwicklungsreise über multiple Domänen hinweg vereinheitlichen, die traditionell unterschiedliche Tools und Fähigkeiten erforderten. Entwickler können mit Echtzeit-Betriebssystemen für Mikrocontroller-Programmierung, vollständigen Linux-Umgebungen für Anwendungsentwicklung, Python für Scripting und Datenverarbeitung sowie KI-Modell-Entwicklung und -Implementierung arbeiten, alles innerhalb einer einzigen integrierten Umgebung. Dieser vereinheitlichte Ansatz adressiert eine der größten Herausforderungen in moderner Embedded-Entwicklung: den kognitiven Overhead des Wechselns zwischen verschiedenen Tools, Sprachen und Workflows beim Bau von Systemen, die multiple Verarbeitungsdomänen umspannen.

Die Umgebung kommt vorinstalliert mit gebrauchsfertigen Arduino-Apps und Bausteinen, die Arduino Bricks nennt. Diese bieten Startpunkte für gängige Aufgaben und Anwendungsmuster und erlauben, beim Entwickeln mit funktionierenden Beispielen zu beginnen, statt von Grund auf neu zu starten. Dieser Ansatz war zentral für Arduinos Erfolg, da die klassische Arduino-IDE Hunderte von Beispiel-Sketches enthielt, die sich von grundlegender LED-Steuerung bis hin zu komplexer Sensorintegration und Kommunikationsprotokollen erstreckten.

Besonders faszinierend ist App Labs Integration mit Edge Impulse, der Machine-Learning-Plattform, die Qualcomm Anfang dieses Jahres übernahm. Diese Integration ermöglicht Entwicklern, KI-Modelle unter Verwendung realer Daten zu bauen, zu trainieren und zu implementieren, die man von mit ihren Arduino-Boards verbundenen Sensoren sammelt. Der Workflow unterstützt gängige KI-Anwendungen einschließlich Objektidentifikation durch Kamerabilder, Anomalieerkennung in Sensordaten für vorausschauende Wartung, Sounderkennung für Sprachsteuerung oder Umweltüberwachung und vieles mehr. Die Fähigkeit, den gesamten Workflow durchzuführen, ohne die Arduino-Entwicklungsumgebung zu verlassen, senkt die Einstiegshürde für KI-Entwicklung signifikant.

Vielleicht am faszinierendsten sind Berichte über das, was einige in der Community „Vibe-Coding“-Fähigkeiten nennen, mit denen das integrierte Sprachmodell der IDE basierend auf Textbeschreibungen von Nutzern Code generieren kann. Während Details spärlich bleiben und man dieses Feature nicht offiziell bestätigt hat, könnte es, falls gut implementiert, einen transformativen Ansatz repräsentieren, um Programmierung für Anfänger zugänglicher zu machen und gleichzeitig potenziell die Produktivität für erfahrene Entwickler zu erhöhen, die schnell Boilerplate-Code generieren oder unbekannte APIs durch natürlichsprachliche Anfragen erkunden können.

Das App Lab kann entweder auf dem UNO Q selbst laufen und dabei die Linux-Umgebung auf dem Qualcomm-Prozessor nutzen, oder auf einem separaten Computer für Entwickler, die diesen Workflow bevorzugen. Diese Flexibilität berücksichtigt verschiedene Arbeitsstile und erlaubt dem UNO Q, als vollständig eigenständige Entwicklungsplattform zu funktionieren, was besonders wertvoll in Bildungsumgebungen oder für Entwickler sein dürfte, die an Orten mit begrenztem Zugang zu Computerressourcen arbeiten.



Source link

Entwicklung & Code

software-architektur.tv: Barrierefreiheit in Web-Projekten | heise online


Barrierefreiheit ist kein “Nice-to-have” mehr, sondern wird spätestens durch das Barrierefreiheitsstärkungsgesetz (BFSG) seit Mitte 2025 für viele digitale Dienste zur Pflicht. Doch wie integriert man Accessibility erfolgreich in moderne Web-Architekturen? Im Gespräch mit Ralf D. Müller zeigen die Gäste Danny Koppenhagen und Maximilian Franzke, wie sie barrierefreie Web-Anwendungen entwickeln – von der strategischen Architekturentscheidung bis zur praktischen Umsetzung.

Dabei diskutieren die drei die folgenden Themen und liefern dazu Antworten auf wichtige Fragen:

  • Architektur-Impact: Wie beeinflusst Barrierefreiheit eure Frontend-Architektur und Design System-Entscheidungen?
  • Praktische Umsetzung: Konkrete Patterns und Techniken für barrierefreie Web-Anwendungen
  • Tooling & Automatisierung: Welche Tools helfen bei der kontinuierlichen Überprüfung von Accessibility-Standards?
  • Enterprise-Scale: Herausforderungen bei der Umsetzung in großen Organisationen mit mehreren Teams
  • Performance vs. Accessibility: Wie balanciert man High-Performance-Anforderungen mit Barrierefreiheit?
  • Rechtliche Aspekte: Was bedeuten WCAG, EAA und BFSG konkret für Entwicklungsteams?

Danny Koppenhagen und Maximilian Franzke bringen ihre Erfahrung aus der Entwicklung des DB UX Design Systems sowie der Arbeit im BIK BITV Prüfverbund und dem Austausch auf europäischer Ebene mit und zeigen, wie man „accessibility-first“ denkt, statt Barrierefreiheit nachträglich „draufzupacken“. Dabei geht es nicht nur um technische Lösungen, sondern auch um organisatorische Prozesse und die Frage: Wie macht man Barrierefreiheit zu einem natürlichen Teil der Softwarearchitektur?

Wer diese Episode nicht verpassen sollte:

  • Softwarearchitekten und -architektinnen, die Barrierefreiheit von Beginn an mitdenken wollen
  • Frontend-Entwicklerinnen und -entwickler, die praktische Umsetzungsstrategien suchen
  • Teams, die vor der Herausforderung stehen, bestehende Anwendungen barrierefrei zu machen
  • Alle, die verstehen wollen, wie sich rechtliche Anforderungen auf Architekturentscheidungen auswirken

Die Ausstrahlung findet am Freitag, 10. Oktober 2025, live von 13 bis 14 Uhr statt. Die Folge steht im Anschluss als Aufzeichnung bereit. Während des Livestreams können Interessierte Fragen via Twitch-Chat, YouTube-Chat, Bluesky, Mastodon, Slack-Workspace oder anonym über das Formular auf der Videocast-Seite einbringen.

software-architektur.tv ist ein Videocast von Eberhard Wolff, Blogger sowie Podcaster auf iX und bekannter Softwarearchitekt, der als Head of Architecture bei SWAGLab arbeitet. Seit Juni 2020 sind über 250 Folgen entstanden, die unterschiedliche Bereiche der Softwarearchitektur beleuchten – mal mit Gästen, mal Wolff solo. Seit mittlerweile mehr als zwei Jahren bindet iX (heise Developer) die über YouTube gestreamten Episoden im Online-Channel ein, sodass Zuschauer dem Videocast aus den Heise Medien heraus folgen können.

Weitere Informationen zur Folge finden sich auf der Videocast-Seite.


(map)



Source link

Weiterlesen

Entwicklung & Code

Open Source: Neue React Foundation unter dem Dach der Linux Foundation


Die JavaScript-Library React wird zur React Foundation umziehen, einer neuen Stiftung unter dem Dach der Linux Foundation. React wurde einst von Meta entwickelt, vor 12 Jahren Open Source gestellt und nun der neuen Foundation übergeben. Diese soll eine neutrale Heimat für React, React Native und unterstützende Projekte wie JSX bieten und sicherstellen, dass React offen und Community-geführt bleibt.


enterJS 2026

enterJS 2026

(Bild: jaboy/123rf.com)

Der Call for Proposals zur enterJS 2026 am 16. und 17. Juni in Mannheim ist gestartet. Bis zum 12. November suchen die Veranstalter nach Vorträgen und Workshops rund um JavaScript und TypeScript, Frameworks, Tools und Bibliotheken, Security, UX und mehr. Auch Praxisberichte sind gern gesehen. Reiche hier deinen Vorschlag ein.

Laut der Ankündigung der Linux Foundation stellt die React Foundation einen Meilenstein für die quelloffene Frontend-Entwicklung dar. Und die OpenJS Foundation – der Meta im Jahr 2023 als Gold Member beitrat – hält die React Foundation nicht nur für einen Gewinn für React, sondern auch für JavaScript, offene Zusammenarbeit und das offene Web.

Die Verwaltung der Stiftung wird einem Board of Directors obliegen, mit Seth Webster (Head of React bei Meta) als Executive Director. Dieses wird Finanzen und Ressourcen für Reacts Entwicklung, Community und Ökosystem zuweisen. Die gewählte Struktur ist dafür geeignet, die Anbieterneutralität der Foundation sicherzustellen und die Interessen der Community zu vertreten, so Webster und weitere auf dem React-Blog.

Außer Meta zählen auch Amazon, Callstack, Expo, Microsoft, Software Mansion und Vercel zu den Gründungsmitgliedern der React Foundation.

Die Foundation wird unterschiedliche Aufgaben übernehmen: Sie wird sich um die React-Infrastruktur kümmern, die Konferenz React Conf organisieren und Initiativen erstellen, um das React-Ökosystem zu unterstützen, beispielsweise durch die finanzielle Unterstützung von Projekten.

Eine neue technische Governance-Struktur soll unabhängig von der React Foundation entstehen und für die technische Ausrichtung von React zuständig sein. Hierfür wollen die Verantwortlichen Community-Feedback einholen, Details dazu sollen folgen.


(mai)



Source link

Weiterlesen

Entwicklung & Code

Gemini 2.5 Computer Use – optimiert für die Browsernutzung


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Mit Gemini 2.5 Computer Use stellt Google ein KI-Modell vor, das darauf spezialisiert ist, das Web mittels eines Browsers so zu nutzen, wie es Menschen tun. Dabei stehen dem Modell vor allem visuelle und reasoning-Fähigkeiten aus Gemini 2.5 Pro zur Verfügung. Dank ihnen kann Gemini das menschliche Verhalten besonders gut nachahmen und entsprechend auch besonders gut eine Aufgabe erfüllen.

Wie bereits bei anderen KI-Anbietern kann auch Gemini 2.5 Computer Use Formulare ausfüllen, scrollen und sich durch Webseiten klicken. Freilich sind dafür auch agentische Fähigkeiten nötig. Diese waren bereits zuvor als Gemini API verfügbar. Dabei handelte es sich jedoch um eine nicht spezialisierte Version von Gemini. Das neue Modell soll deutlich besser mit Interfaces umgehen können, schreibt Google in einem Blogbeitrag. Gemini 2.5 Computer Use wird zunächst ebenfalls über die Gemini API in Google AI Studio und Vertex AI zur Verfügung stehen.

Das Modell analysiert zunächst eine Aufgabe und generiert daraufhin eine erste Antwort. Diese entspricht in der Regel einem Funktionsaufruf, der eine Aktion zur Folge hat – etwa Klicken oder Tippen. Um das Interface zu verstehen, wird ein Screenshot gemacht. Möglich ist auch, dass das Modell den Menschen, der die Aufgabe erteilt hat, vor einer Aktion fragt. Das soll den Kauf von 100 Paar Socken in der falschen Größe oder andere gefährliche Situationen vermeiden. Es folgt ein neuer Screenshot und ein neuer Function Call – bis die ursprüngliche Aufgabe erreicht ist.

Gemini 2.5 Computer Use ist für das Browsen im Web optimiert, bei mobilen UIs schneidet das Modell nicht ganz so gut ab. Als Zielgruppe sieht Google vor allem Entwickler, die eigene Software mittels Computer Use testen können. Abwandlungen von dem Modell unterstützen zudem die Funktionen in Google AI Mode, der neu eingeführten KI-Suche, und vom Project Mariner, Googles Version eines KI-Agenten.

Auch Anthropic hat bereits einen Computer-Use-Modus von Claude vorgestellt. Auch hier werden Screenshots genutzt, die das Modell auswertet. OpenAIs KI-Agent Operator und ChatGPT Agent arbeitet ebenfalls mit Bildschirmaufnahmen und agentischen Fähigkeiten, die beispielsweise das Ausfüllen von Formularen ermöglichen.


(emw)



Source link

Weiterlesen

Beliebt