Connect with us

Künstliche Intelligenz

Software Architecture Gathering 2026 in Berlin: Jetzt Vortrag einreichen


Am 17. und 18. November findet das iSAQB Software Architecture Gathering 2026 erneut in Berlin statt. Vor und nach den Konferenztagen gibt es am 16. und 19. November zusätzliche Workshops. Da die Konferenz letztes Jahr erneut ausverkauft war, wechselt sie dieses Jahr in eine größere Location und findet im Titanic Chausee Berlin statt.

Weiterlesen nach der Anzeige

Die Veranstalter, International Software Architecture Qualification Board (iSAQB) und heise conferences, suchen bis Mitte Juni nach Vorträgen und Workshops für das Konferenzprogramm.

Das Software Architecture Gathering richtet sich vor allem an Softwarearchitekten und Softwareentwicklerinnen. Die Konferenzsprache ist Englisch. Im bis zum 9. Juni laufenden Call for Papers sind 45-minütige Vorträge, Keynotes sowie ganztägige Workshops (6 Stunden) gefragt. Die Themengebiete sind dieses Jahr:

  • Grundlagen der Softwarearchitektur
  • Softwarearchitektur im KI-Zeitalter
  • Moderne Architekturkonzepte
  • Neue Technologien und Quantencomputing
  • Soziotechnische Architektur
  • Security, Resilienz und Nachhaltigkeit
  • Lessons Learned und Best Practices
  • Blick über den Tellerrand

Vor der Veröffentlichung des Programms gibt es besonders günstige Blind-Bird-Tickets. Zusätzliche Rabatte sind sowohl für Teams als auch für iSAQB Certified Professionals for Software Architecture (CPSA) erhältlich. Darüber hinaus gibt es ermäßigte Tickets für Studenten und Freelancer.


(rme)



Source link

Künstliche Intelligenz

KI-Update Deep-Dive: Wenn Arbeitstempo zur Belastung wird


Weiterlesen nach der Anzeige

Die University of Labour in Frankfurt am Main ist die erste Hochschule in Europa in Trägerschaft der Gewerkschaften. Dort erforschen Dr. Nicole Deci, Professorin für Arbeitspsychologie, und Dr. Christian Kellermann, Professor für Sozialwissenschaften, wie sich die Arbeitswelt durch KI verändert.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

„Es gibt einige Studien, die sich anschauen, was KI mit den Menschen macht“, sagt Deci. Eine US-amerikanische Studie zeige, dass KI den Arbeitsalltag intensiviere. Menschen neigten zu Überstunden und zeigten Verhaltensweisen, die als „Selbstgefährdung im Arbeitskontext“ bezeichnet werden. „Es gibt erste Anzeichen in dieser Studie, dass diese Selbstgefährdung auch durch KI ausgelöst werden kann“, erklärt die Arbeitspsychologin.

Langfristig könne das zu Symptomen wie Irritation oder Erschöpfung führen. Die Studie zeige zudem, dass Erholungszeiten verringert würden, indem Menschen in den Pausen weiterarbeiteten. „Die Hemmschwelle ist geringer. Man hat ja schnell etwas eingetippt und schnell eine Reaktion“, so Deci.

Dabei gibt es auch positive Effekte. Eine österreichische Studie zeige, dass die Befragten durch KI ein erhöhtes Autonomie-Erleben entwickeln könnten, so Deci. „Beispielsweise, indem ich plötzlich Aufgaben übernehmen kann, bei denen ich vorher auf Hilfe angewiesen war.“ Auch Kellermann sieht Vorteile, etwa wenn KI bei der Analyse komplexer Texte unterstützt oder in der Radiologie Routineaufgaben übernimmt und so Zeit für anspruchsvollere Tätigkeiten schafft.

Allerdings warnt Kellermann auch vor der Gefahr des sogenannten De-Skilling, also dem Verlust von Kompetenzen. „Wenn wir über zukunftsfähige Kompetenzen sprechen, dann taucht häufig die kritische Urteilsfähigkeit ganz oben auf“, sagt er. Wenn man sich zu sehr auf KI verlasse, könne man das Gespür und das Wissen für bestimmte Aufgaben verlieren. „Da ist es ganz elementar, dass Unternehmen oder Organisationen darauf achten, dass dieser De-Skilling-Effekt nicht eintritt.“

Weiterlesen nach der Anzeige


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

In der Arbeitspsychologie gelten seit Jahrzehnten vier Kriterien für gute Arbeit: Sie muss ausführbar, schädigungslos, beeinträchtigungsfrei und persönlichkeitsförderlich sein. „Das heißt, wir sollten an den Arbeitsaufgaben wachsen können“, erklärt Deci. Das gelinge am besten, wenn KI als Lernwerkzeug genutzt wird.

Für Führungskräfte bedeute dies, vor allem auf menschliche Beziehungen zu achten und Mitarbeitende von Anfang an in die KI-Einführung einzubinden. „Die Personen, die diese Arbeit verrichten, sind teilweise seit mehreren Jahren die Experten für ihre Tätigkeit und wissen am besten, wie KI eingesetzt werden kann“, betont Deci.

Auch sollten Führungskräfte darauf achten, dass in ihren Betrieben keine Parallelstrukturen entstehen. Wenn einzelne Abteilungen im Alleingang Prozesse anstoßen, die sich am Ende vielleicht sogar gegenseitig aushebeln, dann ist das keine gemeinsame Strategie. Laut Deci führt das „bei den Beschäftigten dazu, dass sie keine Lust mehr auf Veränderungen haben.“

Kellermann hat ein Zertifikat für menschenzentriertes KI-Management mitentwickelt, das sich an Betriebsräte und Personalverantwortliche richtet. Diese müssten die Technik, aber auch die damit einhergehenden soziotechnischen Prozesse verstehen. „Wenn sie arbeitsabwertend sind, sind sie selten produktivitätssteigernd“, erklärt Kellermann.

Das deutsche System der Mitbestimmung sieht er als entscheidenden Vorteil. „Das ist im Prinzip ein wahnsinniger Wettbewerbs- und Standortvorteil, den wir haben.“ Während ein rein marktgetriebener Ansatz wie in den USA oft zu technikzentrierten Prozessen und vielen Verlierern führe, ermögliche Mitbestimmung eine menschenzentrierte Gestaltung.

Die Studienlage zur Produktivitätssteigerung durch KI sei laut Kellermann gemischt. Eindeutiger seien die Prognosen bei den Kosteneinsparungen, die bei 25 bis 30 Prozent liegen könnten. Damit diese Gewinne nicht zu einem sozialen Gefälle führen, schlägt er konkrete Maßnahmen vor.

„Diese Kosteneinsparung kann man zum Teil, und es wird auch in manchen Unternehmen in Deutschland gemacht, für einen Qualifikationsfonds nehmen“, sagt Kellermann. Daraus könnten sich Beschäftigte Weiterbildungen finanzieren, um arbeitsfähig zu bleiben. Das würde der Belegschaft Sicherheit geben und gleichzeitig viele Ängste und Widerstände abbauen, ergänzt Deci.

„Menschenzentrierung von KI ist ja kein hehres Ziel, das wir uns ausgedacht haben, als Gegenpol zur Technikzentrierung“, fasst Kellermann zusammen. „Wir wissen nur aus der Geschichte, dass Technikzentrierung, so wie es in den USA läuft, meistens nicht funktioniert.“ Die wegweisende amerikanische Forschungsgemeinde schaue sehr genau „und auch ein bisschen neidisch“ nach Deutschland. Der institutionalisierte Weg der Mitbestimmung sei unser Erfolgsgeheimnis. „Wir müssen ihn nur nutzen und vor allem erstmal erkennen.“


(igr)



Source link

Weiterlesen

Künstliche Intelligenz

KI-Einkaufsagenten: Welche Risiken Nutzer und Firmen kennen müssen


Agentic Commerce verschiebt die Dynamik beim Shopping von „Mensch sucht Produkt“ zu „Maschine verhandelt mit Maschine“. Dadurch entstehen völlig neue Sicherheitsrisiken. Kriminelle oder auch einer der am Kauf beteiligten Akteure könnte Prozesse betrügerisch manipulieren, etwa an den Schnittstellen zwischen den Maschinen oder mittels Prompt Injection, also durch Manipulation einer künstlichen Intelligenz durch Eingaben, die deren ursprüngliche Anweisungen oder Sicherheitsregeln umgehen.

Außerdem bringt Agentic Commerce datenschutzrechtliche und ethische Fragestellungen mit sich, die weit über den klassischen E-Commerce hinausgehen: Um sinnvoll handeln zu können, benötigen Shoppingagenten Informationen, etwa Präferenzen, Kontext und die bisherige Kaufhistorie.

  • Je mehr Rechte und Autonomie KI-Assistenten beim Einkaufen erhalten, desto problematischer wird es, sie zu benutzen.
  • Der Artikel analysiert Sicherheitslücken, Manipulationsmöglichkeiten und rechtliche Grauzonen dieser Systeme.
  • Kritiker fordern nach dem Prinzip „human on the loop“, dass Entscheidungen bei Menschen verbleiben müssen.

DSGVO-Prinzipien wie Datensparsamkeit, Transparenz und Zweckbindung lassen sich mit dem Agieren der Agenten nur schwer vereinbaren. Wohin sich Agentic Commerce in den nächsten Monaten und Jahren entwickelt, lässt sich schwer absehen. In diesem Artikel tasten wir die größten Knackpunkte ab.


Das war die Leseprobe unseres heise-Plus-Artikels „KI-Einkaufsagenten: Welche Risiken Nutzer und Firmen kennen müssen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

ChatGPT führt optionalen Vertrauenskontakt für psychische Krisenfälle ein


OpenAI führt eine optionale Schutzfunktion für erwachsene ChatGPT-Nutzer ein. Sie können eine Vertrauensperson festlegen, die benachrichtigt wird, wenn Chatbot-Gespräche über Selbstverletzung auf eine ernsthafte Gefährdung hindeuten.

Weiterlesen nach der Anzeige

Die Vertrauensperson muss volljährig sein und erhält eine Einladung, die ihre Rolle erklärt. Lehnt sie ab, kann der Nutzer eine andere erwachsene Person benennen.

Erkennt das System Chatbot-Gespräche, die auf eine Selbstgefährdung hindeuten, informiert ChatGPT Nutzer darüber, dass die Vertrauensperson von OpenAI benachrichtigt werden könnte, und ermutigt sie, selbst den Austausch zu suchen. Anschließend prüft ein speziell geschultes Team den Fall. Kommt es zu dem Schluss, dass eine akute Gefährdung vorliegt, wird die Vertrauensperson per E-Mail, SMS oder direkt in der ChatGPT-App benachrichtigt, sofern sie über ein entsprechendes Konto verfügt.

In der Benachrichtigung werden weder Chatinhalte noch Transkripte weitergegeben. Stattdessen enthält sie einen allgemeinen Hinweis darauf, dass Selbstverletzung in potenziell besorgniserregender Weise zur Sprache kam sowie die Aufforderung, den Nutzer aktiv anzusprechen.

Nutzer können ihren Vertrauenskontakt jederzeit in den Einstellungen ändern oder entfernen, ebenso kann sich die Vertrauensperson selbst jederzeit wieder austragen. Laut Ankündigung strebt OpenAI an, Sicherheitsmeldungen in weniger als einer Stunde zu prüfen.

Auf der eigenen Support-Seite schreibt OpenAI, dass die Funktion in den meisten Ländern und Regionen für Erwachsene ab 18 Jahren verfügbar ist. Sie ist nur für private ChatGPT-Konten aktiviert.

Weiterlesen nach der Anzeige

Mit dieser Neuerung weitet OpenAI eine ähnliche Schutzfunktion für Minderjährige auf Erwachsene aus. Sie geht auf Jugendschutzmaßnahmen zurück, die im September 2025 eingeführt wurden. Diesen wiederum ging eine Klage der Eltern eines 16-Jährigen voraus, der sich im April 2025 das Leben genommen hatte. Die Eltern werfen OpenAI vor, ChatGPT habe keine ausreichenden Schutzmechanismen gehabt und den Jugendlichen in seinen suizidalen Gedanken bestärkt. OpenAI wies die Vorwürfe zurück und sah den Fall als Missbrauch von ChatGPT, da der Jugendliche Sicherheitsmaßnahmen des Chatbots ausgehebelt haben soll.

Gegen OpenAI gibt es in den USA weitere Klagen dieser Art. Das Unternehmen steht mit solchen Vorwürfen nicht allein da: Auch andere Anbieter wurden von Angehörigen verklagt, deren Kinder sich nach langen Chatbot-Gesprächen verletzt oder das Leben genommen haben sollen.

Inzwischen betreffen solche Vorwürfe zunehmend auch Erwachsene sowie Fälle, in denen psychische Krisen nicht nur für die Betroffenen selbst gefährlich werden können: So verklagt der Vater eines erwachsenen Gemini-Nutzers Google, weil der Chatbot seinen Sohn in eine wahnhafte Beziehung mit einer KI-Persona verwickelt, zu bewaffneten Anschlägen ermutigt und zu dessen Suizid beigetragen haben soll. In Florida wird zudem geprüft, ob ChatGPT bei der Vorbereitung eines tödlichen Uni-Anschlags half.


(tobe)



Source link

Weiterlesen

Beliebt