Microsoft Ignite 2023

News von der Microsoft Ignite 2023

Innovationen für das gesamte Rechenzentruminfrastruktur

Microsoft hat auf der Ignite-Konferenz Innovationen für seine Rechenzentrumsinfrastruktur angekündigt. Dies umfasst KI-optimierte Prozessoren von Partnern sowie zwei eigene Chips: den KI-Beschleuniger-Chip Microsoft Azure Maia für Cloud-basiertes Training und Inferencing von KI-Workloads, darunter OpenAI-Modelle und ChatGPT, sowie den Cloud-nativen Chip Microsoft Azure Cobalt, der auf der ARM-Architektur basiert und auf Leistung, Energieeffizienz und Kostenoptimierung für allgemeine Arbeitslasten ausgerichtet ist. Des Weiteren wird die allgemeine Verfügbarkeit von Azure Boost angekündigt, einem System zur Beschleunigung von Speicherung und Vernetzung.

Microsoft intensiviert zudem seine Partnerschaften mit Hardware-Anbietern. Dies beinhaltet die Einführung von AMD MI300X-beschleunigten virtuellen Maschinen in Azure, die für die Verarbeitung von KI-Workloads optimiert sind. Zusätzlich wird die Preview der neuen NC H100 v5 Virtual Machine Series mit NVIDIA H100 Tensor Core GPUs vorgestellt, um die Leistung, Zuverlässigkeit und Effizienz für das Training künstlicher Intelligenz im mittleren Leistungsbereich zu verbessern. Ferner werden Pläne für die ND H200 v5 Virtual Machine Series bekanntgegeben, eine KI-optimierte VM mit der kommenden NVIDIA H200 Tensor Core GPU.

Copilot-Angebot wird erweitert

Microsoft Copilot Studio ist ein Low-Code-Tool, das es ermöglicht, Microsoft Copilot durch die Integration geschäftskritischer Daten anzupassen und eigene Copilots für den internen oder externen Gebrauch zu erstellen. Mit Konnektoren, Plugins und GPTs können IT-Abteilungen ihren Copilot mit den besten Datenquellen für ihre spezifischen Anfragen verbinden.

Microsoft Copilot für Service unterstützt die Unternehmen durch ein Copilot für rollenbasierten Support. Durch die KI-Transformation wird das Kundenservice stark beschleunigt. Copilot for Service umfasst Microsoft Copilot für Microsoft 365 und erweitert bestehende Kundenkontaktzentren um generative KI-Funktionen.

Copilot in Microsoft Dynamics 365 Guides kombiniert generative KI und Mixed Reality, um Mitarbeitende im Service- und Produktionsbereich bei der Bewältigung komplexer Aufgaben und der schnelleren Problemlösung ohne Unterbrechung ihres Arbeitsablaufs zu unterstützen. Dieser „Freihand-Copilot“ wird zuerst auf HoloLens 2 verfügbar sein.

Microsoft Copilot für Azure ist ein KI-Begleiter für die IT, der die tägliche IT-Verwaltung erleichtert und ein einheitliches Chat-Erlebnis bietet. Es verbessert die Fähigkeit von IT-Teams, Apps und Infrastrukturkomponenten zu entwerfen, zu betreiben und zu warten, indem es neue Einblicke in Workloads ermöglicht und bisher ungenutzte Azure-Funktionen erschließt.

Copilot für alle: Microsoft strebt an, die neuen Copilots für alle Benutzer zugänglich und einfach zu nutzen zu machen. Bing Chat und Bing Chat Enterprise werden nun Teil von Copilot. Für Microsoft Entra-Kunden bietet Copilot in Bing, Edge und Windows zusätzlichen Datenschutz auf Unternehmensniveau. Die Preview-Phase endet am 1. Dezember 2023, und ab dann wird Copilot allgemein verfügbar sein. Microsoft erweitert auch die Nutzungsberechtigung für Copilot mit Datenschutz auf Unternehmensniveau auf noch mehr Nutzer von Entra ID, ohne zusätzliche Kosten.

Azure AI bietet mehr Nutzen für Entwicklern

Microsoft erweitert die Auswahl und Flexibilität für generative KI-Modelle, um Entwicklern die umfangreichste Auswahl zu bieten. Die neue Funktion Model-as-a-Service im Modellkatalog ermöglicht es Profi-Entwicklern, aktuelle KI-Modelle wie Llama 2 von Meta sowie kommende Premium-Modelle wie Mistral und Jais von G42 als API-Endpunkte in ihre Anwendungen zu integrieren. Dabei können sie die Modelle mit eigenen Daten anpassen, ohne sich um die Einrichtung und Verwaltung der GPU-Infrastruktur kümmern zu müssen.

Die Preview von Azure AI Studio bietet eine einheitliche Plattform, auf der Unternehmen KI-Anwendungen erforschen, erstellen, testen und bereitstellen können. In Azure AI Studio können sie eigene Copilots erstellen und trainieren oder die Genauigkeit von Basis- und Open-Source-Modellen durch die Bereitstellung eigener Daten verbessern. Vector Search, nun allgemein verfügbar, ermöglicht hoch präzise Ergebnisse für alle Nutzer von generativen KI-Anwendungen.

Das GPT-3.5-Turbo-Modell mit einer Prompt-Länge von bis zu 16.000 Token ist jetzt allgemein im Azure OpenAI Service verfügbar. Das GPT-4-Turbo-Modell befindet sich in der Public Preview und wird noch vor Jahresende allgemein verfügbar sein. Beide Modelle erlauben es Kunden, die Prompt-Länge zu vergrößern und so mehr Kontrolle und Effizienz in generative KI-Anwendungen zu integrieren.

Die Preview von GPT-4 Turbo mit Vision steht bevor. DALL-E 3 ist bereits im Azure OpenAI Service verfügbar und trägt mit GPT-4 zur nächsten Generation von Unternehmenslösungen bei, die fortschrittliche Funktionen für die Bildverarbeitung ermöglichen. GPT-4 Turbo mit Vision wird sogar den Inhalt von Videos verstehen und Textausgaben generieren, um die menschliche Kreativität zu fördern, wenn es mit dem Azure AI Vision Service kombiniert wird.

KI-Einsatz, sicher gemacht

Microsoft setzt Maßstäbe in der sicheren und verantwortungsvollen Nutzung von KI und hat mit dem Copilot Copyright Commitment (CCC) bereits eine Verpflichtung eingegangen, Geschäftskunden bei Urheberrechtsklagen zu verteidigen und zu entschädigen. Nun geht das Unternehmen einen Schritt weiter und erweitert das CCC auf Kunden, die den Azure OpenAI Service nutzen. Diese Erweiterung wird als Customer Copyright Commitment bezeichnet. Microsoft hat eine neue Dokumentation veröffentlicht, die Kunden des Azure OpenAI Service dabei unterstützen soll, technische Maßnahmen zu ergreifen, um das Risiko rechtsverletzender Inhalte zu minimieren. Die Einhaltung dieser Dokumentation ist obligatorisch, um die erweiterten Schutzmaßnahmen nutzen zu können.

Azure AI Content Safety ist jetzt allgemein verfügbar und unterstützt Unternehmen dabei, schädliche Inhalte zu erkennen und zu blockieren, um bessere Online-Erlebnisse zu gewährleisten. Kunden können Azure AI Content Safety entweder als integriertes Sicherheitssystem im Azure OpenAI Service verwenden oder als Teil ihres Prompt-Engineerings für Open-Source-Modelle in Azure Machine Learning oder als eigenständigen API-Service.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert