Google will doch nicht böse sein
In einem Post auf dem Google-Blog erläutert Google-CEO Sundar Pichai, wie das Unternehmen mit künstlicher Intelligenz (KI) umgehen will, was Google mit KI tun wird und was nicht. Dies wohl als Reaktion auf die Kontroversen rund um Googles Engagement im Pentagon.
Google-CEO Sundar Pichai schreibt heute in einem Post auf dem Google-Blog darüber, was Google mit Künstlicher Intelligenz (KI) vorhat – und was nicht. Dies dürfte eine Reaktion auf die jüngsten Kontroversen rund um Googles Engagement im US-Verteidigungsministerium sein, wonach mehr als 4600 Mitarbeiter eine Petition zum Stopp der Vereinbarung mit dem Pentagon unterzeichnet hatten.
So sieht Pichai in KI eine lernende und sich anpassende Computerprogrammierung, die zwar "nicht jedes Problem lösen" könne. Ihr Potenzial, das Leben der Menschen zu verbessern, sei aber tief greifend. Google will KI verwenden, um Produkte nützlicher zu machen - von E-Mails, die frei von Spam und einfacher zu verfassen sind, bis zum digitalen Assistenten, mit dem Nutzer natürlich sprechen können und zu Fotos, die den Menschen Freude bereiten.
Über seine Produkte hinaus will Google KI einsetzen, um Menschen bei der Bewältigung dringender Probleme zu helfen. "Einige Gymnasiasten etwa bauen KI-gesteuerte Sensoren, um das Risiko von Waldbränden vorherzusagen. Bauern nutzen sie, um die Gesundheit ihrer Herden zu überwachen. Ärzte fangen an, KI zu verwenden, um Krebs zu diagnostizieren und Blindheit zu verhindern", schreibt Pichai. Diese Vorteile seien der Grund, warum Google stark in die Forschung und Entwicklung von KI investiere und KI-Technologien über Tools und Open-Source-Code anderen zur Verfügung stelle.
"Wir sind uns bewusst, dass diese leistungsstarke Technologie ebenso starke Fragen über ihren Einsatz aufwirft. Wie KI entwickelt und eingesetzt wird, wird für viele Jahre einen erheblichen Einfluss auf die Gesellschaft haben. Als führendes Unternehmen in der KI sehen wir uns in der Verantwortung, dies richtig zu machen", schreibt Pinchai weiter. Er kündigt sieben Prinzipien an, an denen Google seine Arbeit ausrichten will. Es seien keine theoretischen Konzepte, sondern konkrete Standards, die "unsere Forschung und Produktentwicklung aktiv steuern und unsere Geschäftsentscheidungen beeinflussen".
Pinchai räumt ein, dass dieser Bereich dynamisch sei und sich weiterentwickle und Google deshalb diese Arbeit "mit Bescheidenheit, einer Verpflichtung zu internem und externem Engagement und der Bereitschaft, unseren Ansatz im Laufe der Zeit anzupassen, angehen werde".
Folgende Ziele formuliert Pichai für den Umgang mit KI-Anwendungen (übersetzt aus dem Englischen mit deepl.com):
1. KI soll sozial vorteilhaft sein
Die Reichweite neuer Technologien berührt zunehmend die Gesellschaft als Ganzes. Fortschritte in der künstlichen Intelligenz werden sich in einer Vielzahl von Bereichen wie Gesundheitswesen, Sicherheit, Energie, Transport, Produktion und Unterhaltung auswirken. Bei der Betrachtung der möglichen Entwicklung und Nutzung von KI-Technologien werden wir ein breites Spektrum sozialer und wirtschaftlicher Faktoren berücksichtigen und dort vorgehen, wo wir glauben, dass der wahrscheinliche Gesamtnutzen die vorhersehbaren Risiken und Nachteile deutlich übersteigt.
AI verbessert auch unsere Fähigkeit, die Bedeutung von Inhalten im grossen Massstab zu verstehen. Wir werden uns bemühen, qualitativ hochwertige und genaue Informationen mit Hilfe von KI zur Verfügung zu stellen, während wir weiterhin die kulturellen, sozialen und rechtlichen Normen in den Ländern respektieren, in denen wir tätig sind. Und wir werden weiterhin sorgfältig prüfen, wann wir unsere Technologien auf nicht-kommerzieller Basis zur Verfügung stellen.
2. KI soll helfen, unfaire Marktverzerrungen zu erzeugen oder zu verstärken
KI-Algorithmen und -Datensätze können unlautere Verzerrungen reflektieren, verstärken oder reduzieren. Wir sind uns bewusst, dass es nicht immer einfach ist, zwischen fairen und unfairen Entwicklungen zu unterscheiden, und dass dies je nach Kultur und Gesellschaft unterschiedlich ist. Wir werden versuchen, ungerechte Auswirkungen auf Menschen zu vermeiden, insbesondere solche, die mit sensiblen Merkmalen wie Rasse, Ethnizität, Geschlecht, Nationalität, Einkommen, sexueller Orientierung, Fähigkeiten und politischer oder religiöser Überzeugung zusammenhängen.
3. KI soll sicher gebaut und getestet werden
Wir werden weiterhin starke Sicherheitspraktiken entwickeln und anwenden, um unbeabsichtigte Ergebnisse zu vermeiden, die zu Schäden führen können. Wir werden unsere KI-Systeme entsprechend vorsichtig gestalten und versuchen, sie in Übereinstimmung mit best practices der KI-Sicherheitsforschung zu entwickeln. In geeigneten Fällen testen wir KI-Technologien in eingeschränkten Umgebungen und überwachen deren Betrieb im Einsatz.
4. KI soll den Menschen verpflichtet sein
Wir werden KI-Systeme entwickeln, die sowohl geeignete Möglichkeiten für Feedback und Erklärungen als auch Widerspruch bieten. Dabei unterliegen unsere KI-Technologien einer angemessenen menschlichen Führung und Kontrolle.
5. KI soll Datenschutz-Grundsätze miteinbeziehen
Wir werden unsere Datenschutzgrundsätze in die Entwicklung und Nutzung unserer KI-Technologien einfliessen lassen. Wir werden Gelegenheit zur Kenntnisnahme und Zustimmung geben, Architekturen mit Datenschutzmassnahmen fördern und eine angemessene Transparenz und Kontrolle über die Verwendung von Daten gewährleisten.
6. KI soll wissenschaftliche Exzellenz aufrechterhalten
Technologische Innovation wurzelt in der wissenschaftlichen Methode und der Verpflichtung zu offener Forschung, intellektueller Strenge, Integrität und Zusammenarbeit. KI-Tools haben das Potenzial, neue Bereiche der wissenschaftlichen Forschung und des Wissens in kritischen Bereichen wie Biologie, Chemie, Medizin und Umweltwissenschaften zu erschliessen. Wir streben nach hohen Standards wissenschaftlicher Exzellenz, um die Entwicklung der KI voranzutreiben.
Wir werden mit einer Reihe von Interessengruppen zusammenarbeiten, um eine durchdachte Führung in diesem Bereich zu fördern, wobei wir uns auf wissenschaftlich strenge und multidisziplinäre Ansätze stützen werden. Und wir werden KI-Wissen verantwortungsvoll weitergeben, indem wir Lehrmaterialien, Best Practices und Forschungsergebnisse veröffentlichen, die es mehr Menschen ermöglichen, nützliche KI-Anwendungen zu entwickeln.
7. KI soll für Anwendungen zur Verfügung gestellt werden, die diesen Grundsätzen entsprechen
Technologie ist vielfältig einsetzbar. Wir arbeiten daran, potenziell schädliche oder missbräuchliche Anwendungen zu begrenzen. Bei der Entwicklung und dem Einsatz von KI-Technologien werden wir die Einsatzmöglichkeiten anhand der folgenden Faktoren bewerten:
Hauptzweck und Verwendung: ob der Hauptzweck und die voraussichtliche Verwendung einer Technologie und Anwendung mit einer schädlichen Verwendung zusammenhängt oder an eine solche angepasst werden kann.
Natur und Einzigartigkeit: ob wir einzigartige oder allgemein verfügbare Technologie zur Verfügung stellen.
Auswirkungen: ob der Einsatz dieser Technologie signifikante Auswirkungen haben wird.
Art des Engagements von Google: ob wir allgemeine Tools bereitstellen, Tools für Kunden integrieren oder kundenspezifische Lösungen entwickeln.
KI-Anwendungen, die Google nicht weiterverfolgen wird
Zusätzlich zu den genannten Zielen wird Google keine KI in den folgenden Anwendungsbereichen entwickeln oder einsetzen:
Wenn sie einen Gesamtschaden verursachen oder verursachen können. Falls ein materielles Schadensrisiko besteht, werden wir nur dann weitermachen, wenn wir glauben, dass der Nutzen die Risiken bei weitem überwiegen wird, und angemessene Sicherheitsvorkehrungen treffen.
Für Waffen oder andere Technologien, deren Hauptzweck oder Anwendung darin besteht, Personenschäden zu verursachen oder direkt zu erleichtern.
Für Technologien, die Informationen sammeln oder zur Überwachung verwenden, die gegen international anerkannte Normen verstossen.
Für Technologien, deren Zweck gegen die allgemein anerkannten Grundsätze des Völkerrechts und der Menschenrechte verstösst.
Wir wollen deutlich machen, dass wir zwar keine KI für den Einsatz in Waffen entwickeln, aber unsere Arbeit mit den Regierungen und dem Militär in vielen anderen Bereichen fortsetzen werden. Dazu gehören Cybersicherheit, Ausbildung, militärische Rekrutierung, Gesundheitsversorgung von Veteranen sowie Suche und Rettung. Diese Kooperationen sind wichtig und wir werden aktiv nach weiteren Möglichkeiten suchen, die kritische Arbeit dieser Organisationen zu verbessern und die Sicherheit der Service-Mitglieder und Zivilisten zu gewährleisten.
AI auf lange Sicht
Während wir uns auf diese Weise der KI nähern, verstehen wir, dass es in diesem Gespräch Raum für viele Stimmen gibt. Im Zuge des Fortschritts der KI-Technologien werden wir mit einer Reihe von Stakeholdern zusammenarbeiten, um eine durchdachte Führung in diesem Bereich zu fördern, die sich auf wissenschaftlich strenge und multidisziplinäre Ansätze stützt. Und wir werden weiterhin unsere Erkenntnisse zur Verbesserung der KI-Technologien und -Praktiken weitergeben.
Wir glauben, dass diese Prinzipien die richtige Grundlage für unser Unternehmen und die zukünftige Entwicklung von AI sind. Dieser Ansatz entspricht den Werten unseres ursprünglichen Gründerbriefes aus dem Jahr 2004. Dort haben wir unsere Absicht deutlich gemacht, eine langfristige Perspektive einzunehmen, auch wenn dies kurzfristig Kompromisse bedeutet. Wir haben es damals gesagt, und wir glauben es jetzt.
Lesen Sie zum Thema KI auch unsere Berichterstattung über den Event zum Thema digitale Assistenten und künstliche Intelligenz des Schweizer Rückversicherers Swiss Re in Zusammenarbeit mit dem IBM Research und dem Gottlieb Duttweiler Institut.