Connect with us

Künstliche Intelligenz

Nintendo 3DS zu alt fürs Museum


Berühmtestes Ausstellungsobjekt im Pariser Museum Louvre ist sicherlich die Mona Lisa, die dort seit 1797 hängt. Seit 2012 beeindruckte das Louvre auch mit einem modernen Multimediaführer mit autostereoskopischem Bildschirm: der Mobilkonsole Nintendo 3DS. Sie hat mit 1. September ausgedient, nach mehr als einem Jahrzehnt. Die verbliebenen Geräte gehen zurück zu Nintendo.

Die Nintendo 3DS kam im November 2011 in Europa auf den Markt. Das Louvre ließ dafür eigens Software schreiben, die Besucher gegen Aufpreis seither durch die Ausstellung führte. Eine Karte des Gebäudes zeigte an, wo sich der Besucher gerade befand, und eine Stimme informierte über das jeweilige Kunstwerk.

Hinzu kamen grobe 3D-Darstellungen ausgestellter Skulpturen – da erwies sich der Bildschirm der kleinen Konsole als Vorteil, zeigt er doch 3D-Bilder ohne störende Brille (wenn der Benutzer die Konsole ruhig in etwa 30 bis 40 Zentimetern Abstand vor seinen Kopf hält). Der Bildschirm schickt jeweils ein Bild mit 400 × 240 Pixeln zum linken respektive rechten Auge. Dafür liegt eine zweite Parallaxen-Barriere vor dem eigentlichen LC-Display. Sie sorgt dafür, dass jedes Auge nur jede zweite Spalte des LCDs zu sehen bekommt. So entsteht ein 3D-Effekt. Vor Ort war das von enden wollendem Nutzen, konnten Besucher doch die Skulptur in Natur-3D sehen.

Doch ab November 2013 konnten Interessierte den Museumsführer auch käuflich erwerben, um sich zu Hause dem Kunstgenuss hingeben zu können. Es gab eine Version auf Datenträger im Museumsshop, sowie eine Version zum Download im Online-Shop Nintendos. Letzteres war fast zehn Jahre im Angebot, bis der japanische Hersteller im März 2023 den Online-Shop für seine Konsolen Nintendo 3DS und Wii U zusperrte – schließlich war die 3DS bereits 2017 von der Switch abgelöst worden. Inzwischen verkauft Nintendo auch schon deren Nachfolger Switch 2.

An einem neuen Audioführer arbeitet das Louvre noch; vorerst verweist es auf seine Webseite, die drei unterschiedliche Wege durch das Museum vorschlägt. Das Louvre geht auf Kunstsammlungen französischer Monarchen und Kirchen zurück. Nach der Französischen Revolution wurde es 1793 erstmals öffentlich zugänglich. Die riesige Anlage gilt als größtes und meistbesuchtes Museum der Welt: 2024 kamen nicht weniger als 8,7 Millionen Besucher, davon 77 Prozent von außerhalb Frankreichs. Sie konnten zehntausende Exponate sehen; das nicht öffentliche Archiv soll noch eine Größenordnung mehr Objekte umfassen.


(ds)



Source link

Künstliche Intelligenz

DevSecOps und KI – Sichere Software mit Künstlicher Intelligenz


Im Prozess der agilen Softwareentwicklung sind DevOps-Prozesse nicht mehr wegzudenken. Da die Sicherheitsanforderungen an moderne Software stetig steigen, integrieren viele Teams Security-Maßnahmen direkt in die Entwicklung – das Stichwort heißt hier DevSecOps. Moderne KI-Tools versprechen darüber hinaus effizientere Abläufe und mehr Möglichkeiten. Gleichzeitig müssen Teams aber auch die Risiken durch KI bedenken, sowohl in eigenen Workflows, als auch bei potenziellen Angriffen auf ihre Software. Unser Classroom DevSecOps und KI – Sichere Softwareentwicklung im Zeitalter der Künstlichen Intelligenz liefert Antworten auf die wichtigsten Fragen.

Im Verlauf von vier Sessions erfahren IT-Operations-Mitarbeitende, Sicherheitsexperten und IT-Manager, wie sie die Prinzipien von DevSecOps in ihre Entwicklungsprozesse integrieren und dabei die Möglichkeiten der Künstlichen Intelligenz voll ausschöpfen. Sie lernen, wie KI-gestützte Tools automatisiert Sicherheitslücken erkennen, Schwachstellen effizient priorisieren und so die Sicherheit ihrer Anwendungen verbessern.

Ein zentraler Fokus liegt darauf, Sicherheitsaspekte von Anfang an in die DevOps-Pipeline zu integrieren, ohne Geschwindigkeit und Flexibilität des Entwicklungsprozesses zu beeinträchtigen. Darüber hinaus erhalten die Teilnehmenden einen umfassenden Überblick über gesetzliche Anforderungen, Compliance-Vorgaben und aktuelle Sicherheitsstandards, die bei der Umsetzung von DevSecOps entscheidend sind. Anhand realer Beispiele demonstrieren unsere Experten typische Angriffsszenarien sowie praxiserprobte Lösungsansätze.

Nach Abschluss unseres Classrooms verfügen die Teilnehmenden über das Wissen und die Werkzeuge, um Sicherheit nachhaltig in ihrem DevOps-Workflow zu verankern und verstehen, wie Bedrohungen entstehen und wie sie diese in ihrer Umgebung effektiv abwehren. Die Termine sind:

  • 06.11.25: Synergien zwischen DevSecOps und KI entdecken
  • 13.11.25: KI-gestützte Sicherheit in die DevOps-Pipeline integrieren
  • 20.11.25: Sichere Value Stream Supply Chain – DevOps, CI/CD und Observability
  • 27.11.25: IT-Sicherheit mit KI – von Prävention bis Reporting

Die Sessions haben eine Laufzeit von jeweils vier Stunden und finden von 9 bis 13 Uhr statt. Alle Teilnehmenden können sich nicht nur auf viel Praxis und Interaktion freuen, sondern haben auch die Möglichkeit, das Gelernte mit allen Aufzeichnungen und Materialien im Nachgang zu wiederholen und zu vertiefen. Fragen werden direkt im Live-Chat beantwortet und Teilnehmer können sich ebenfalls untereinander zum Thema austauschen. Der nachträgliche Zugang zu den Videos und Übungsmaterialien ist inklusive. Weitere Informationen und Tickets finden Interessierte auf der Website des Classrooms.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.


(cbo)



Source link

Weiterlesen

Künstliche Intelligenz

Workshop: Alles mit Apples Notizen-App organisieren


Forever Notes ist eine leistungsfähige Methode, um Apple Notizen in ein strukturiertes und nachhaltiges Wissenssystem zu verwandeln.

Die fünf Kernkomponenten – Home, Tags, Collections, Hubs und Journal – arbeiten nahtlos zusammen und bilden ein flexibles Netzwerk, das sich an Ihren Anforderungen ausrichtet.

Der besondere Reiz liegt in der Einfachheit und zugleich hohen Anpassungsfähigkeit. Sie können mit den grundlegenden Elementen starten und das System stetig erweitern. Es ist so konzipiert, dass es mit Ihren Anforderungen wächst. Zusätzliche Apps oder Abonnements sind nicht erforderlich.


Das war die Leseprobe unseres heise-Plus-Artikels „Workshop: Alles mit Apples Notizen-App organisieren“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Nachhaltige Softwarearchitekturen: Energieeffizienz als Designziel


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.


Portrait Noah Neukam

Portrait Noah Neukam

Als Grenzgänger zwischen Software Engineer und Software Architect ist Noah Neukam in Web-Architekturen heimisch. Seine Steckenpferde sind qualitätsgetriebene Softwarearchitekturarbeit, Kommunikation und Umfeld, sowie die Auswirkungen von Strukturen und Strukturmustern auf Software.


Portrait Uwe Neukam

Portrait Uwe Neukam

Uwe Neukam ist Software Architect bei DATEV eG und hat in mehr als 20 Berufsjahren in mehreren Unternehmen den Wandel von on-premises Entwicklung hin zur Webentwicklung begleitet. In individuellen Analysen und auf das Unternehmen zugeschnittenen Umsetzungen sieht er den Schlüssel dafür.

Für IT-Spezialisten und Softwarearchitektinnen ist Nachhaltigkeit ein wichtiger Aspekt ihrer Arbeit und das entscheidende Stichwort dabei lautet: Energieverbrauch. Diesen beschreibt das Borderstep Institut in Bezug auf Deutschland 2024 wie folgt:

„Zwischen 2010 und 2024 ist der Stromverbrauch der Rechenzentren und kleineren IT-Installationen um über 90 % auf knapp 20 Mrd. kWh im Jahr angestiegen. […] Das beschleunigte Wachstum der RZ-Branche wird zwangsläufig zu einem weiteren Anstieg des Energiebedarfs führen. Bis zum Jahr 2030 wird erwartet, dass Rechenzentren in Deutschland etwas mehr als 30 Milliarden Kilowattstunden Strom pro Jahr verbrauchen. Diese Prognose berücksichtigt die Anforderungen des Energieeffizienzgesetzes und geht von einer erheblichen Verbesserung der Effizienz der Gebäudetechnik aus […] Die durch den Stromverbrauch der Rechenzentren erzeugten Treibhausgasemissionen werden in Deutschland deutlich abnehmen, weil die Stromversorgung zunehmend auf erneuerbare Energien umgebaut wird. Bis zum Jahr 2030 werden sie voraussichtlich um 30 % sinken“.


Diagramm über Entergiebedarf und Entwicklung in Deutschland

Diagramm über Entergiebedarf und Entwicklung in Deutschland

Diagramm über Energiebedarf und Entwicklung in Deutschland (Abb. 1)

Nachhaltigkeit hat viele Facetten, wie etwa ein Blick auf die UN-Nachhaltigkeitsziele zeigt. Auch die Definition des Bitkom (2021) im Umfeld „Ressourceneffiziente Programmierung“ fasst den Begriff sehr weit, wie der folgende Auszug aus der Begriffserklärung zeigt:

„Dauerhafte Entwicklung, die die Bedürfnisse der Gegenwart befriedigt, ohne zu riskieren, dass künftige Generationen ihre eigenen Bedürfnisse nicht befriedigen können […].“

Die entscheidende Frage ist allerdings: Wo gibt es bei der Entwicklung von Software direkte Einflussmöglichkeiten? Der naheliegendste Aspekt ist eindeutig der Energieverbrauch der IT, der im täglichen Betrieb immer präsent ist. Warum ist das so wichtig? Bei Software geht es im Allgemeinen nicht um den Selbstzweck, sondern um die Unterstützung bei Aufgaben und Problemen im täglichen Leben. So kann es passieren, dass eine für sich genommen lapidare Tätigkeit eines Menschen in Summe einen sehr hohen Energieverbrauch erzeugt. Nehmen wir als Beispiel eine Google-Suchanfrage. Sie hat im Schnitt einen Strombedarf von 0,3 Watt. Je nachdem, welchen Modellen gefolgt wird, entsteht bei einem durchschnittlichen Volumen von 75.000 Suchanfragen pro Sekunde im Jahr ein Strombedarf von ca. 720 GWh. Dies entspricht ca. 400.000 Single-Haushalten in Deutschland. Mit dem Einzug von KI-gestützten Systemen hat sich der Verbrauch verzehnfacht.

Zwar wird die Hardware immer effizienter im Verbrauch, aber das Benutzerverhalten (Beispiel: „Wie viele Streamingdienste habe ich abonniert?“) und das Softwareangebot fressen die Einsparungen oft wieder auf. So ist immer mehr Hardware nötig, um mit dem stetig wachsenden Softwareangebot mithalten zu können. Im Resultat steigt der Energieverbrauch unaufhörlich.

Beim Blick auf die tägliche Arbeit von Softwarearchitekten drängt sich schnell der Gedanke auf, dass der Energieverbrauch der jeweiligen Architektur einfach zu ermitteln sein sollte. Dafür wäre die Einführung eines Energielabels eine geeignete Maßnahme, die einer Software ein CO2-Preisschild umhängen würde. Leider lässt es sich nicht so einfach bewerkstelligen, denn die Softwarearchitektur ist eine wichtige, aber nicht die einzige Komponente, die einen Einfluss auf den Energieverbrauch hat.

Zu den weiteren Faktoren gehören die Umsetzung der Softwarearchitektur und die Verwendung der Software durch den Benutzer. Schaut man in die Vergangenheit, zeigt sich immer wieder, dass Applikationen zweckentfremdet wurden. Der Klassiker für umfangreiche Nutzung außerhalb des ursprünglich gedachten Nutzungszwecks ist Microsoft Excel. Das System wird mittlerweile für viele Use Cases eingesetzt, was auf der einen Seite Kreativität im Umgang mit Systemen zeigt, aber, wie schon angesprochen, die Kontrolle unmöglich macht.

Bei der Umsetzung der Softwarearchitektur kann es schon mal passieren, dass sich unnötig komplizierte Codezeilen einschleichen. Um den Qualitätsanforderungen dennoch zu entsprechen, ist im Softwarebetrieb letztlich mehr Hardware nötig als geplant.

Diese Beispiele zeigen, wie komplex das Thema Energieverbrauch von Software ist. Es gibt eine Reihe Faktoren, um darauf Einfluss zu nehmen und auch die Softwarearchitektur hat ihren Anteil daran. Woran lässt sich festmachen, was gutes oder schlechtes Softwaredesign im Sinne von Nachhaltigkeit ausmacht? Sind zwei Microservices nachhaltiger als einer? Ist ein Monolith ineffizienter als Microservices? Entwicklungsteams und das Management erwarten Antworten auf diese Fragen.

Angesichts der komplexen Gemengelage liegt die Frage nahe: Gibt es einen Ansatz, um für weniger Energiehunger bei einer Software zu sorgen? Vielen Softwareherstellern ist das Thema mittlerweile wichtig und dementsprechend geben sie Empfehlungen oder Handlungsanweisungen heraus. Aber auch hier gilt: Was bei dem einen funktioniert, muss bei einem anderen noch lange nicht zum Erfolg führen. Markus Eisele von Red Hat hat eine Reihenfolge formuliert, der wir gerne folgen:

  • Datendesign, -nutzung und -speicherung: Weniger ist hier mehr! Entwicklerinnen und Entwickler neigen dazu, zukunftssicher zu arbeiten: „Es kann ja mal sein, dass dies benötigt wird.“ So kommt es häufig zu Überprovisionierung, sodass beispielsweise mehr Daten als notwendig über die Netzwerke verteilt werden. Oder viele Zugriffe werden bis zur Datenhaltung weitergeleitet, auch wenn das nicht notwendig ist. Entwicklerinnen und Entwickler sollten einmal prüfen, welchen Stromverbrauch ein Speichern oder echtes Löschen auf einer Festplatte generiert.
  • Anwendungsdesign: Das Internet hat es geschafft, dass Software immer erreichbar ist. Dieses „Always on“ hat die gleichen Auswirkungen wie der Stand-by-Modus bei Haushaltsgeräten. Dabei kommen die bereitgestellten Ressourcen nicht wirklich zum Einsatz. Die meisten Applikationen arbeiten immer noch synchron, obwohl sich viele ihrer Prozesse parallelisieren ließen.
  • Plattformbereitstellung, -nutzung und -skalierung: Bei diesem Punkt zeigt sich eine direkte Auswirkung von Softwarearchitekturen. Provisionierungskonfigurationen können dazu führen, dass zusätzliche Hardware notwendig ist. Obwohl das zumeist nicht der wesentliche Punkt im Sinne der Nachhaltigkeit ist (Entwickler betrachten nur den Applikationskontext), kann das im schlechtesten Fall einen Dominoeffekt auslösen: Markus Eisele hat recht, wenn er bemerkt, dass man die Konfiguration unter Umständen in ihrer Gesamtheit betrachten muss.
  • Codeeffizienz: Auch wenn Entwickler und Entwicklerinnen es nicht gerne hören: Der effizienteste Code ist kein Code. Wenn sie Code schreiben, sollten sie bereits beim Design auf den Workload achten.
  • Betrieb: Cloudsysteme bieten eine hohe Rechendichte für ihre gemanagten Serviceangebote. Anwenderinnen und Anwender können im Vergleich zu selbst virtualisierten Applikationsservern in der Cloud mehr Software auf weniger Hardware betreiben. Das sollte man unbedingt nutzen.



Source link

Weiterlesen

Beliebt