Künstliche Intelligenz
Microsoft 365 Copilot für Fortgeschrittene: Profiwissen in fünf Sessions
Werden Sie zum Profi für Microsoft 365 Copilot – als Nutzer und Admin. Verstehen Sie die vielseitigen Einsatzmöglichkeiten von Copilot in allen M365-Apps Ihres Unternehmens. In unserem fünfteiligen Classroom Microsoft 365 Copilot für Fortgeschrittene – Profiwissen für Admins und Anwender im Unternehmen erhalten Sie einen tiefgehenden Einblick in das umfassende KI-Ökosystem von Microsoft. Spezifische Anwendungsfälle für Copilot sowie Expertenwissen zur Administration und Integration von Copilot in Ihre Unternehmensstrategie stehen dabei im Fokus.
Als Einstieg in den Classroom legt unser Experte den Schwerpunkt auf die Analyse von Microsoft Copilot und dessen Integration in Microsoft 365 und Edge. Dabei demonstriert er anschaulich, wie Unternehmen diese Tools effizient einsetzen. Er erläutert praxisnah, wie der Copilot in Anwendungen wie Teams, Excel, Word und weiteren Tools den Arbeitsalltag erleichtert und für mehr Produktivität sorgt.
Microsoft 365 Copilot im Unternehmen
Im weiteren Verlauf des Classrooms konzentriert sich unser Experte auf Sicherheits- und Datenschutzaspekte bei der Einführung von Copilot. Dabei baut er auf den alltäglichen Einsatzfällen von Microsofts KI in Unternehmen auf. Er geht detailliert auf Pflichten und Möglichkeiten für Unternehmen ein, die diese berücksichtigen müssen, um sensible Daten zu schützen. Hier nimmt sich unser Experte ausreichend Zeit, um alle relevanten Details zu betrachten und auf Fragen der Teilnehmenden einzugehen.
Abschließend steht der strategische Einsatz von KI als Wettbewerbsvorteil im Mittelpunkt. Unser Experte betrachtet die Herausforderungen einer umfassenden KI-Transformation. Bei der Umsetzung nimmt das AI Competence Center (AICC) eine besondere Rolle ein. Dieses ist für die Steuerung und Priorisierung von nachhaltigen Innovationen zuständig.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Nach Abschluss des Classrooms, sind Sie in der Lage, den Microsoft 365 Copilot stärker in Ihrem Unternehmen einzusetzen und durch effizientere Abläufe zu profitieren. Die Termine sind:
- 04. November: Einführung in KI, Microsoft Copilot für Edge und Microsoft 365 Copilot
- 18. November: Microsoft 365 Copilot aus Nutzersicht entdecken und verstehen
- 25. November: Microsoft 365 Copilot optimal nutzen und mit versteckten Optionen ausreizen
- 02. Dezember: Sicherer Einsatz von Microsoft 365 Copilot im Unternehmen
- 09. Dezember: KI-Governance-Modell für Admins und KI-Strategie – AICC, Transformation und strategische KI-Projekte
Praxis- und Expertenwissen – live und für später
Die Sessions haben eine Laufzeit von jeweils vier Stunden und finden von 9 bis 13 Uhr statt. Alle Teilnehmenden können sich nicht nur auf viel Praxis und Interaktion freuen, sondern haben auch die Möglichkeit, das Gelernte mit allen Aufzeichnungen und Materialien im Nachgang zu wiederholen und zu vertiefen. Fragen werden direkt im Live-Chat beantwortet und Teilnehmer können sich ebenfalls untereinander zum Thema austauschen. Der nachträgliche Zugang zu den Videos und Übungsmaterialien ist inklusive. Weitere Informationen und Tickets finden Interessierte auf der Website des Classrooms.
(cbo)
Künstliche Intelligenz
Google-Suche unterdrückt bald mehr unerwünschte Intimfotos
Intimdarstellungen, die ohne Zustimmung eines Abgebildeten online gestellt werden, sollen schwerer auffindbar werden. Dazu kooperiert Google fortan mit der britischen Revenge Porn Helpline. Auf deren Webseite StopNCII.org registrierte Aufnahmen sollen nicht länger in Googles Suchergebnissen auftauchen. Umgesetzt werden soll das in den kommenden Monaten.
Schon bisher betreibt Google selbst eine Webpage, über die Betroffene die Zensur sie betreffender Informationen beantragen können. Dabei geht es um Nacktbilder, sexuelles Material, personenbezogene Informationen, Inhalte erpresserischer Webseiten sowie generell Darstellungen Minderjähriger, auch wenn sie nicht in intimen oder kompromittierenden Situationen zu sehen sind. Dortige Registrierungen können sich aber nur bei Google auswirken.
StopNCII (Non-Consensual Intimate Images) sammelt Hashes intimer Fotos oder Videos, von denen jemand behauptet, ohne Zustimmung dargestellt zu sein. Deepfakes werden wie echte Darstellungen behandelt. Die Hashes teilt StopNCII mit mehreren Partnern, darunter Meta Platforms, Microsoft, Onlyfans, Pornhub, Reddit, Snap und Tiktok. Alle Partner versprechen, registrierte Fotos oder Videos nicht mehr zu zeigen. Jetzt stößt auch Google hinzu.
Mindestalter 18
Allerdings erlaubt StopNCII keine Hashes der Darstellungen Minderjähriger, es gilt ein Mindestalter von 18 Jahren im Zeitpunkt der Ablichtung. Bei KI-generierten Darstellungen muss die gezeigte Person mindestens 18 Jahre alt erscheinen. Wer von einer Abbildung als Minderjähriger betroffen ist, soll sich an das Projekt Take It Down des britischen National Center for Missing and Exploited Children (NCMEC) wenden.
Vorbeugung gegen Missbrauch der Missbrauchsbekämpfung gibt es bei StopNCII, soweit ersichtlich, keine. Erotikwebseitenbetreiber könnten etwa versuchen, die Verbreitung von Konkurrenzbildern zu unterdrücken. Der Upload der Hashes erfolgt anonym, die Darstellungen selbst erhält StopNCII nie. Damit kann der Dienst nicht überprüfen, ob der Anzeigende wirklich dargestellt und betroffen ist.
(ds)
Künstliche Intelligenz
Meta enthüllt Ray-Ban Display: Smart Glasses mit Bildschirm und sEMG-Armband
Neben der zweiten Generation seiner Meta Ray-Ban und den neuen Meta Oakley Vanguard speziell für Sportler hat Meta Platforms ein weiteres, ebenfalls komplett neues Modell eigener Smart Glasses vorgestellt. Die Meta Ray-Ban Display verfügen über einen im rechten Glas integrierten kleinen Bildschirm für Apps und Benachrichtigungen. Gesteuert wird dies über ein Armband namens Neural Band, das kleine Bewegungen der Hand und des Handgelenks erkennt, die per KI-Modell in Befehle umgesetzt werden.
Meta Ray-Ban Display mit Neural Band und Hand-Symbol
(Bild: Meta)
Die Erforschung eines solchen sEMG-Armbands, mit dem das Handgelenk zur Computerschnittstelle wird, hatte Meta bereits im Juli veröffentlicht. Es erkennt frei in der Luft ausgeführte Pinch-, Tap- und Swipe-Gesten, erlaubt die Steuerung eines eindimensionalen Cursors durch Handgelenksbewegungen und ermöglicht das Schreiben von Wörtern, indem Nutzer mit dem Zeigefinger Buchstaben auf einer festen Oberfläche nachzeichnen. Mark Zuckerberg demonstrierte dies nun während der Präsentation zu Metas Connect-Veranstaltung.
Live-Demo mit Schwierigkeiten
Die Künstliche Intelligenz (KI) des Datenkonzerns, Meta AI, ist ebenfalls essenziell zur Steuerung der Ray-Ban Display. Der integrierte KI-Assistent interpretiert nicht nur die Handbewegungen, sondern kann natürlich auch auf Sprachbefehle reagieren. Während der Live-Demonstration der Smart Glasses gelang es Zuckerberg allerdings nicht, die KI dazu zu bewegen, einen Videoanruf anzunehmen. Zudem misslang es einem live zugeschalteten Koch, Meta AI dazu zu bringen, zu erklären, welchen Schritt man für die Zubereitung eines Gerichts zuerst angehen soll. Die Beteiligten machten schlechtes WLAN dafür verantwortlich.
Mark Zuckerberg zeigt Meta Ray-Ban Display
(Bild: Facebook-Video)
Im Bildschirm der Meta Ray-Ban Display werden etwa WhatsApp-Chats eingeblendet, aber man kann sich auch mit der Brille geschossene Fotos ansehen, bevor man sie versendet oder postet. Ebenfalls möglich ist das Transkribieren persönlicher Konversationen, also das Einblenden von Untertiteln eines Gesprächs. Navigation und Echtzeit-Übersetzungen sind weitere Funktionen dieser Smart Glasses.
Preislich bestätigte Zuckerberg frühere Berichte, dass Metas erste Smart Glasses mit Display günstiger werden als gedacht. Die Meta Ray-Ban Display sollen einschließlich des Neural Bands ab 30. September für 799 US-Dollar erhältlich sein.
(fds)
Künstliche Intelligenz
Meta Oakley Vanguard – des Sportlers neues Must-have
Rennradfahrer bekommen ein neues Must-have. Die Meta Oakley Vanguard ist eine smarte Brille für Sportler. Mit 549 Euro ist sie kein Schnäppchen, garantiert steht es um die Haltbarkeit aber besser als bei so mancher Radlerhose, die schnell mal durchgescheuert ist – und die auch ein Sümmchen kostet. Den Funktionsumfang bezeichnet Meta als Athletic Intelligence.
Die Vanguard kommt als KI-Brille und wird mit Meta AI verbunden, wie auch die bisherigen Brillenmodelle von Meta. Sie ist mit einer mittigen 12-Megapixel-Kamera (122 Grad Weitwinkel) im Steg für eine verbesserte Ich-Perspektive ausgestattet und kann Videos in 3K aufnehmen. Auch Slow-Motion-Videos und Hyperlapse sind möglich.
(Bild: emw)
Außerdem ist die Vanguard wasserfest. Meta sagt, Tiefseetauchen wär zu viel des Guten, im kleinen Pool ist alles möglich (entspricht IP67). Auch Schweiß soll der Brille nichts anhaben können. Die Nasenflügel bekommen bei zunehmender Feuchtigkeit sogar noch mehr Grip. Sie werden in drei Größen mitgeliefert.
Das klassische, sportive Visier gibt es in verschiedenen Farben, ebenso das Gestell. Die rot getönten Gläser können helfen, Objekte besser zu erkennen. Wer nicht Rennrad fährt, sondern etwa Ski oder Snowboard, tut gut an dem weißen Gestell mit goldenem Glas für Kontraste im Schnee.
Vanguard lässt sich mit Garmin und Strava verknüpfen
Die Vanguard lässt sich mit anderen Geräten und Systemen verknüpfen, konkret Garmin und Strava. Diese lassen sich dann auch via Meta AI per Sprache steuern. Man kann also beispielsweise Meta AI fragen, wie es aktuell um den eigenen Puls steht. Wer seine Brille mit Garmin Connect, Apple Health oder Health Connect von Android verbindet, bekommt Aktivitätszusammenfassungen direkt in die Meta-AI-App geschickt.
(Bild: emw)
Sobald die Brille eine Besonderheit feststellt, reagiert sie mit der Aktivierung der Kamera. So bleiben die Hände frei. Sollte man die Knöpfe doch selbst drücken wollen, befinden sich diese nun am unteren Rand der Bügel. Oben stört bisher nämlich der Helm.
Die Vanguard ist deutlich geräuschempfindlicher als ihre Vorgänger und kann zugleich viel mehr Umgebungsgeräusche wegfiltern. Auch bei mehr als 30 Kilometern pro Stunde und Verkehr daneben kann man so noch Musik hören oder mit Mutti telefonieren. Es sind sechs Dezibel mehr Lautstärke als bei der Meta Oakley HSTN möglich.
Insgesamt sind bis zu neun Stunden Batterielaufzeit möglich, sechs Stunden, wenn man durchgängig Musik hört. Das Ladecase reicht für weitere 36 Stunden Akkulaufzeit. 20 Minuten darin reichen für eine zur Hälfte aufgeladene Brille.
Auch wenn sich die Vanguard ganz deutlich an Hobby- und Profisportler richtet, ist das Aussehen potenziell auch was für den Streetstyle.
Transparenzhinweis: Die Autorin wurde von Meta zu einer Preview der Meta Oakley Vanguard eingeladen. Meta hat die Reisekosten übernommen. Vorgaben zur Art und zum Umfang unserer Berichterstattung gab es nicht.
(emw)
-
UX/UI & Webdesignvor 4 Wochen
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 3 Wochen
Adobe Firefly Boards › PAGE online
-
Social Mediavor 4 Wochen
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 4 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 Wochen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
Digital Business & Startupsvor 3 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Tagen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Digital Business & Startupsvor 3 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier