„Ich ermutige alle, das Tool zu nutzen“: Wie der CEO Satya Nadella Microsoft in einem Jahr voll auf künstliche Intelligenz ausgerichtet hat
Microsoft entwickelt nun selbst Chips für KI- und Cloud-Anwendungen. Zusammen mit seinem KI-Helfer Copilot unterstreicht der Konzern seinen Anspruch, der Infrastrukturlieferant für das KI-Zeitalter zu sein.
Zu viele Meetings, zu viele unbeantwortete E-Mails sowie Daten, die auf Cloud-Servern von verschiedenen Anbietern liegen. Die Arbeit im Online-Zeitalter kann unübersichtlich, ineffizient und unter Umständen auch ermüdend sein.
Auf seiner Entwicklerkonferenz in Seattle hat Microsoft diese Woche seine Idee vorgestellt, Ordnung in diese Datenflut zu bringen, die das Unternehmen mit Produkten wie Outlook und Teams teilweise auch selbst erst erschaffen hat: Copilot, ein digitaler Helfer für alle seine Dienste.
Die Entwicklung im Bereich künstliche Intelligenz (KI) verläuft rasant. Im Januar 2023 trat der Microsoft-CEO Satya Nadella am Weltwirtschaftsforum in Davos auf und sagte, dass KI die menschliche Produktivität und die Zukunft der Arbeit transformieren werde. Chat-GPT, der neue KI-Chatbot von Open AI, war gerade seit zwei Monaten verfügbar und sorgte für viel Fantasie und Aufregung. Zwischenzeitlich hat Microsoft 13 Milliarden Dollar in das Startup aus San Francisco investiert. „Ich sehe diese Technologien als Co-Piloten, der den Menschen hilft, mit weniger mehr zu erreichen“, sagte Nadella damals.
Ein digitaler Helfer für die tägliche Arbeit
Auf der Entwicklerkonferenz von Microsoft in Seattle zeigte Nadella auf, wie tiefgreifend die Veränderung ist. „Wir hatten zwölf fantastische Monate, seitdem ist Chat-GPT vor einem Jahr gestartet“, sagte er. Copilot, Microsofts auf generativem KI basierender Chatbot für seine Office-Produkte, komme gut bei den Nutzerinnen und Nutzern an. Jene, die Zugriff bereits darauf haben, möchte laut einer Erhebung von Microsoft auf einen großen Teil nicht mehr darauf verzichten.
Wie genau Copilot die Leute produktiver macht, erläutert der Microsoft-Kommunikationschef Frank Shaw im Gespräch mit Journalisten mit einem Beispiel. „Die Hälfte der Word-Nutzer schliessen das Programm wieder, ohne einen Buchstaben geschrieben zu haben“, sagte er. Sie möchten nicht, wie genau Sie beginnen möchten. „Hier kann KI eine Einstiegshilfe sein“, sagte Shaw, indem sie oben auf dem leeren Blatt Papier die Frage stellte, was man schreiben möchte, und bereits einige Vorschläge für Formulierungen mache. Copilot kann weiter in Teams, der Kollaborations-Software von Microsoft, verpasste Meetings und Erwähnungen der eigenen Person zusammenfassen und bei der Beantwortung von E-Mails helfen.
Seit Nadellas Auftritt am WEF hat Microsoft den digitalen KI-Helfer in den Grossteil seiner Produkte eingebaut. Eine Webversion von Copilot ist für alle über verschiedene Browser zugänglich. Unternehmen können für 30 Dollar pro Mitarbeiter und Monat Copilot zusätzlich für die Nutzung in den Office-Produkten sowie Teams freischalten. Wie bei Chat-GPT von Open AI lässt sich auch der KI-Helfer von Microsoft anpassen, etwa an die Bedürfnisse eines Unternehmens.
Der Vorteil des digitalen KI-Helfers ist vor allem, dass er durch einfache Sprache angesprochen werden kann. Um eine spezifische Information aus der Cloud zu kommen, braucht es keine speziellen Befehle oder Wissen darüber, wo eine Information abgespeichert ist. Der Copilot eines Unternehmens kann in dessen Datenstruktur integriert werden. Das ermöglicht es auch weniger spezialisierten Mitarbeitenden, an die korrekten Informationen zu kommen.
„Ich ermutige alle, ob sie schon lange Teil eines Betriebs sind oder soeben begonnen haben, das Tool zu nutzen“, führte Nadella im Gespräch mit Journalisten aus. „Wenn man den Copiloten nicht täglich nutzt, erfährt man nicht, wozu er fähig ist und wo seine Grenzen liegen.“
Microsoft mit eigenen Chips
Alle diese KI-Anwendungen benötigen Rechenleistung, und die wird Microsoft mit seiner Azure-Cloud zur Verfügung stellen. 11 Milliarden Dollar hat sich der Konzern das allein im dritten Quartal kosten lassen. Der große Teil davon fließt in den Aufbau und Unterhalt seiner Datenzentren.
Auf seiner Entwicklerkonferenz hat Microsoft zwei selbstentwickelte Prozessoren vorgestellt, wie das zuvor auch schon weitere Cloud-Anbieter wie Amazon Web Services oder Google Cloud getan haben. Der Maia 100 ist ein KI-Chip, der für das Training und Interferieren von großen KI-Modellen wie Chat-GPT in der Cloud entwickelt wurde. Bei der Entwicklung konnte Microsoft dabei stark von der Zusammenarbeit mit Open AI profitieren.
Der Cobalt 100 basiert auf der Architektur des Chipdesigners Arm und ist für allgemeine Cloud-Anwendungen gedacht. Er ist laut Microsoft auf Effizienz hinsichtlich Leistung, Energieverbrauch und Kosten getrimmt. Beide Chips sind ab Anfang 2024 in der Azure-Cloud verfügbar. Daten darüber, wie die Chips im Vergleich zu jenen der anderen Anbieter abschneiden, gibt es derzeit nicht.
Nun, da Microsoft selbst Chips entwickelt, kann das Unternehmen alle Komponenten seiner Datenzentren direkt kontrollieren und aufeinander abstimmen. „Wir haben keinen Chip entwickelt, sondern ein System“, sagte Rani Borkar, Vizepräsidentin für Microsoft Cloud, Hardware-Systeme und Infrastruktur. So könnte man „jedes Quentchen Leistung“ aus den Servern herauspressen.
Mit den intern entwickelten Chips will Microsoft laut eigenen Aussagen andere Chiphersteller nicht direkt angreifen. Man wolle ein auf Partnerschaften fokussiertes Unternehmen bleiben. „Microsoft wäre auf keinen Fall Microsoft ohne diese entscheidende Partnerschaft mit Intel“, so unterstrich Nadella diesen Punkt. «Eine gute Partnerschaft ist eine Kunst, die dazu beiträgt, den Unternehmenswert zu steigern.»
Die neuesten Modelle von Nvidia, AMD und Intel werden weiterhin über Azure verfügbar sein. „Es geht darum, den Kunden Optionen zu bieten“, sagte Borkar. Sie sollen neue Möglichkeiten erhalten, für ihre Prozesse den richtigen Chip in der Cloud zu finden.
Der vernetzte Computer für das KI-Zeitalter
Mit den eigenen Chips, den Rechenzentren, der Dateninfrastruktur sowie den einzelnen Anwendungen wird Microsoft KI der ganzen Welt zugänglich machen. Und zwar in einer Weise, die Mehrwert schafft für alle Regionen der Welt, nicht nur für die US-Westküste. „Das ist sehr wichtig für uns“, sagte Nadella. Unternehmen in verschiedenen Ländern und Kulturen hatten spezifische Anforderungen. „Wir müssen sie dort mit dieser neuen Technologie abholen, wo sie sind.“
Zunächst holte Microsoft vor allem Büroarbeiter ab. In Kombination mit Mixed-Reality-Brillen, etwa der Hololens von Microsoft oder der Quest-Reihe von Meta, soll Copilot bald auch Arbeiter in Fabrikhallen unterstützen. Mit Sprachbefehlen sollen sie direkt an Informationen gelangen, etwa zur Wartung oder zum Aufbau einer Maschine, ohne in einer Dokumentation nachschauen zu müssen. In Europa nutzen etwa Siemens oder Novo Nordisk bereits eine Vorschauversion davon.
All diese KI-Anwendungen, erst recht wenn Menschen rund um den Globus sie nutzen sollen, verschlingen eine große Menge Energie und Rechenleistung. Wird es da nicht zu Kapazitätsengpässen kommen? Nicht in den Augen von Nadella, wie er auf Nachfrage der NZZ sagte. Die Verbesserung der Rechenkapazität pro Energieeinheit dank KI sei erstaunlich. Das beschleunigt auch den wissenschaftlichen Fortschritt und werde auch das Energieproblem lösen. Glaubt man auch Microsoft, ist Copilot der Schlüssel zu all unseren Problemen.
Die Reise an die Konferenz auf Einladung von Microsoft.