AWS enthüllt KI-Chatbot für den Arbeitsalltag und Super-Supercomputer
In Las Vegas findet derzeit die "re:Invent"-Konferenz von AWS statt. Während seiner Keynote kündigte CEO Adam Selipsky eine Fülle an Neuheiten an. Darunter einen eigenen KI-Chatbot, der im Arbeitsalltag dienlich sein soll, und einen Supercomputer mit beachtlichen 65 Exaflops in Zusammenarbeit mit Nvidia.
Willie Nelson, Diana Ross, Steely Dan und nun Adam Selipsky. Im The Venetian in Las Vegas traten schon zahlreiche bekannte Namen auf. Vom 27. November bis zum 1. Dezember 2023 ist Amazon Web Services (AWS) und dessen CEO Selipsky wieder an der Reihe. Das Luxus-Hotel und -Casino beherbergt auch in diesem Jahr wieder die "re:Invent"-Konferenz des Hyperscalers. Die Konferenz findet 2023 zum 12. Mal statt.
Wie gewohnt eröffnete CEO Selipsky den zweiten Tag der Konferenz mit seiner Keynote - vor 50'000 Teilnehmenden in Las Vegas und 300'000 weltweit virtuell dazugeschalteten Personen. Während seiner zweistündigen Rede hielt er sich nicht zurück, wenn es um Ankündigungen neuer Lösungen und Produkte ging.
Ein Chatbot, der programmiert und Kundenanfragen versteht
Zu den interessantesten Neuheiten, die Selipsky in Las Vegas enthüllte, zählt Amazon Q - AWS' Antwort auf ChatGPT und Co. Ein Assistent, der sich generative künstliche Intelligenz (KI) zunutze macht und Anfragen in natürlicher Sprache versteht. Amazon Q soll Mitarbeitende bei der Arbeit unterstützen, betonte Selipsky. Etwa indem es Cloud-Infrastrukturen vorschlägt, die den Anforderungen eines Unternehmens entsprechen, die richtigen EC2-Instance-Typen für bestimmte Workloads empfiehlt, Texte verfasst oder beim Programmieren hilft - zu diesem Zweck wird Amazon Q auch in Code Whisperer integriert.
AWS-CEO Adam Selipsky. (Source: zVg)
AWS' KI-Chatbot Programmierkenntnisse sollen auch bei grösseren Migrationen von Quellcodes auf neue Versionen von Programmiersprachen helfen. Aufgrund des grossen Aufwands würden Unternehmen dies oft hinauszögern. Dies führe Einbussen bei der Sicherheit und der Leistung. Ein kleines internes Team von Entwicklern habe mit Amazon Q 1000 Applikationen in nur zwei Tagen von Java 8 auf Java 17 aktualisiert. "Das spart Monate, wenn nicht Jahre an Arbeitszeit für die Entwickler ein", sagte Selipsky. Dieses Feature mache viele bei Amazon sehr glücklich, ergänzte der sichtlich ebenfalls sehr zufriedene CEO. Künftig soll der Chatbot auch .Net-Workloads von Microsoft auf Linux migrieren können.
Q soll aber nicht nur den Programmierern und Programmiererinnen im Unternehmen helfen. Daher wird der KI-Assistent etwa auch in AWS' Business-Intelligence-Tool Quicksight integriert. Selipsky demonstrierte auf der Bühne, wie man mit Anfragen in Chatform hübsche Infografiken aus den Verkaufszahlen eines Unternehmens erstellen kann.
Als Teil der cloudbasierten Contact-Center-Lösung Amazon Connect soll die KI ebenfalls aushelfen. Q könne Call-Center-Mitarbeitenden in Echtzeit Antworten oder Handlungsempfehlungen vorschlagen. Im Anschluss an ein Kundengespräch fasst der Assistent das Gespräch zusammen.
Um Anfragen kompetent zu beantworten, greift Amazon Q auf Unternehmensdaten zu und durchsucht, analysiert und verwertet diese. "Q versteht und respektiert bestehende Identitäten, Rollen und Berechtigungen", fügte der CEO schnell hinzu. "Wenn ein User nicht berechtigt ist, ohne Q auf etwas zuzugreifen, kann er diese Daten auch mit Q nicht aufrufen." Zudem versprach er, dass die Daten, mit denen Unternehmen ihren eigenen Assistenten füttern, nicht genutzt werden, um das zugrunde liegende KI-Modell zu trainieren.
AWS und Nvidia arbeiten an Super-Supercomputer für KI
Während seiner Keynote teilte Selipsky die Bühne mit verschiedenen Gästen - darunter Jensen Huang, der CEO von Nvidia. Die beiden Unternehmen verbindet seit 13 Jahren bereits eine enge Zusammenarbeit. Nun wollen AWS und Nvidia ihre Kooperation weiter vertiefen: In Las Vegas kündigten die beiden CEOs mit Projekt Ceiba "den ersten Cloud-KI-Supercomputer" an - dieser nutzt Nvidias im August angekündigten Grace-Hopper-Chips und AWS' Ultracluster.
Selipsky (links) zusammen mit Nvidia-CEO Jensen Huang. (Source: zVg)
Mit 16'384 GH200-Chips wollen die Unternehmen eine Rechenleistung von 65 Exaflops erreichen. Diese Rechenleistung soll die nächste Generation von KI-Anwendungen antreiben. "Damit können wir die Trainingszeit selbst der grössten Sprachmodelle um die Hälfte reduzieren", sagte Huang. Was wiederum das Trainieren von noch grösseren Modellen erlaube. Zum Vergleich: Der HPE/Cray-Supercomputer Frontier, der gemäss der Top500-Liste derzeit schnellste Supercomputer der Welt, schafft lediglich 1,1 Exaflops.
Ferner werde AWS künftig Nvidias DGX-Cloud hosten. Die KI-Training-as-a-Service-Plattform könne Large Language Models (LLM) mit über einer Billion Parametern trainieren. AWS wird auch drei zusätzliche EC2-Instanzen einführen, die von Nvidias H200 Tensor Core GPUs angetrieben werden. Diese neuen P5e-Instanzen sind ebenfalls für KI-Anwendungen gedacht. Die G6 und G6e-Instanzen (basierend auf Nvidias L4 beziehungsweise L40S GPUs) sollen sich für Anwendungen wie KI-Feinabstimmungen oder Grafik- und Video-Workloads eignen. Die G6e-Instanzen seien besonders für 3-D-Workloads oder Digital Twins geeignet.
Noch mehr Highlights der Keynote
Weitere Ankündigungen während Selipskys Keynote - nicht alle drehten sich um KI:
- AWS vertieft auch die Partnerschaft mit Salesforce. Ausser weitergehende Produktintegrationen sind neu erstmals ausgewählte Produkte des Business-Software-Entwicklers auf dem AWS Marketplace erhältlich. Dazu zählen Data Cloud, Service Cloud, Sales Cloud, Industry Clouds, Tableau, Mulesoft, Platform und Heroku. Und durch die Verbindung von Salesforces Einstein mit Amazons Bedrock sollen es Entwickler zudem leichter haben, Anwendungen von generativer KI zu entwickeln.
- Mit Guardrails will AWS die Nutzung von KI sicherer machen. Die neuen Features sind Teil von Amazon Bedrock - ein Service zur Entwicklung von Applikationen, die generative KI nutzen. Damit könne etwa eine Bank festlegen, dass ihr KI-Assistent den Kunden keine Finanzberatung gibt. Ferner könne Guardrails auch bestimmen, dass personenbezogene Daten aus automatischen Zusammenfassungen von Supportanrufen entfernt werden.
- Der AWS-CEO kündigte auch ein Update für Amazons Object-Storage-Service S3 an: die allgemeine Verfügbarkeit von Amazon S3 Express One Zone. Das Unternehmen verspricht damit einen konsistenten Datenzugriff im Millisekundenbereich für latenzempfindliche Anwendungen. Die Datenzugriffsgeschwindigkeit sei bis zu 10 Mal schneller und die Anforderungskosten um bis zu 50 Prozent geringer im Vergleich zum S3-Standard.
- Um Datensilos entgegenzuwirken, kündigte Selipsky neue Zero-ETL-Integrationen an: Aurora PostgreSQL, DynamoDB und RDS for MySQL. Diese Integrationen würden es Kunden ermöglichen, Daten schnell und einfach zu verbinden und zu analysieren, ohne komplexe ETL-Datenpipelines erstellen und verwalten zu müssen. ETL steht für "extract, transform and load".
- Mit Projekt Kuiper will AWS - vergleichbar mit Elon Musks Starlink - via Satelliten auch entlegene Regionen mit Breitbandinternet versorgen. Zwei Prototyp-Satelliten befinden sich bereits im Orbit und erreichten eine Erfolgsrate von 100 Prozent, wie Selipsky sagte.
Das war erst der Anfang der "re:Invent". Die Konferenz läuft noch bis zum 1. Dezember und es stehen noch weitere Keynotes auf dem Programm - unter anderem zu KI sowie zum Partner-Ökosystem des Hyperscalers.
Das könnte Sie ebenfalls interessieren: Seit diesem Frühling steht AWS in der Schweiz und Österreich unter neuer Führung. Chris Keller übernahm die Leitung kurz nach der Eröffnung der ersten Schweizer Infrastrukturregion. Im Interview spricht Keller über die Vorteile dieser Region, Parallelen zwischen Apple und AWS sowie über seine Passion für das B2B-Umfeld.