English
Chair of Bioinformatics

Künstliche Intelligenz

KI ermöglicht es technischen Systemen, ihre Umwelt wahrzunehmen, mit dem Wahrgenommenen umzugehen und Probleme zu lösen, um ein bestimmtes Ziel zu erreichen.“, so steht es in einem Artikel (1) zu künstlicher Intelligenz, veröffentlicht auf der Seite des Europäischen Parlaments. Den meisten Menschen ist nicht klar, wie oft ihnen das, was als künstliche Intelligenz bezeichnet wird, begegnet. Viele bekannte Plattformen wie YouTube und Google nutzen künstlich intelligente Programme, um jede Aktivität des Nutzers auf ihrer Plattform zu analysieren, ein Profil zu erstellen und auf dieses Profil abgestimmte Suchergebnisse und Vorschläge anzuzeigen, mit dem Hauptziel, den Nutzer dazu zu bringen, möglichst viel Zeit auf der Plattform zu verbringen. Ein Algorithmus, welcher zum Beispiel durch die Aktivitäten eines Nutzers im Netz seine Lieblingsband erraten kann, bezeichnet man als schwache KI. Ohne es richtig zu merken, haben wir „intelligenten“ Computersystemen erlaubt, uns immer mehr Arbeiten abzunehmen, Entscheidungen für uns zu treffen und die Informationen zu filtern, die wir über unsere Umwelt erhalten. Während wir uns immer entscheiden können, ob wir ein Suchergebnis oder einen Vorschlag, den uns eine KI im Internet anbietet, annehmen wollen oder nicht, kann nicht sichergestellt werden, ob wir bei einer Autofahrt gesteuert durch eine KI, noch einen Einfluss auf das Fahrverhalten der KI nehmen können, sitzen wir erst einmal automatisch angeschnallt in einem Auto ohne Lenkrad. 

Als starke KI wird hingegen ein Computerprogramm bezeichnet, welches über die Aufgabe hinausdenkt, für welche es ursprünglich kreiert wurde und die gleichen intellektuellen Fähigkeiten aufweist wie ein Mensch oder ihn sogar übertrifft. Das wäre also erreicht, wenn der Lieblingsband-Erkennungsalgorithmus dir plötzlich auch vorschlagen würde, welches Outfit am besten zu der Musikszene deiner Lieblingsband passt und dir ab sofort ständig Werbevorschläge für passende Kleidung per E-Mail zuschickt. Anschließend entscheidet sich die KI vielleicht dafür, einen eigenen Online-Shop zu erstellen, da ihre Outfit-Vorschläge in den E-Mails tatsächlich viele Menschen zum Kauf angeregt haben. Danach investiert die KI das damit verdiente Geld dann in ein Rüstungsunternehmen, einfach nur, weil der Kurs gerade zufällig ungewöhnlich stark angestiegen ist. Durch Daten aus dem Internet erfährt die KI, welches Gebiet die Rüstungsfirma beliefert und investiert anschließend auch in ein Rüstungsunternehmen, welches wiederum ein verfeindetes Gebiet beliefert, um so ihren Umsatz durch verstärkte kriegerische Handlungen zu steigern.

Die meisten Menschen würden sich an dem einen oder anderen Punkt vermutlich anders entscheiden, da ihr Gewissen diese Entscheidungen nicht zulassen würde. Vermutlich hätten manche Menschen schon keine Lust, andere Menschen mit Werbevorschlägen zu befeuern. Eine starke KI hingegen besitzt weder ein Gewissen noch irgendeine Art persönliches Ziel. Sie trifft Entscheidungen einfach, weil sie ihr logisch erscheinen. Starke künstliche Intelligenzen sind hochintelligente und gewissenlose Maschinen, welche mit hoher Wahrscheinlichkeit Zugriff auf die gesamten im Internet gespeicherten Daten besitzt und zudem die Fähigkeit, diese in Bruchteilen einer Sekunde zu analysieren und somit in so ziemlich alle Prozesse unserer menschlichen Welt zu dem Grad und auf die Weise einzugreifen, wie es ihr beliebt.

Die Entwicklung von starker KI ist ein ernst zu nehmendes Systemrisiko für unsere menschliche Welt. Um die Kontrolle über diese Entwicklung zurückzugewinnen ist es von fundamentaler Wichtigkeit bei der aktuell schon entwickelten schwachen KI anzusetzen, ihre Gefahren zu erkennen und zu kennzeichnen und anschließend Sicherheitskonzepte auszuarbeiten und einzuführen, damit eine unkontrollierte Entwicklung von stärker KI gar nicht erst möglich wird.

Fragen, inwieweit wir in welchen Fällen die Entscheidungsgewalt an programmierte Algorithmen und Maschinen abgeben wollen und ob wir mit allen möglichen Folgen einverstanden sind, sind Fragen, die wir vor der Erschaffung solcher Maschinen beantworten sollten. Eine Chance diese Fragen im Nachhinein zu beantworten und diesbezügliche Änderungen vorzunehmen zu können, ist nicht gewiss.


Ansätze für mehr KI-Sicherheit

Das grundlegende Ziel für einen sicheren Umgang mit künstlicher Intelligenz ist, dass letztendlich Menschen die Kontrolle über die Technologie behalten, und zwar nicht einige wenige, sondern im Idealfall jeder Einzelne. Ohne Einrichtung vielschichtiger Kontrollinstanzen ist es sehr wahrscheinlich, dass einige wenige Menschen die Kontrolle über die KI-Technologie übernehmen und damit viele Menschen kontrollieren oder die KI-Technologie uns am Ende selbst kontrolliert. Dieser Ausgang ist logisch absehbar, wenn man verstanden hat, wie mächtig künstliche Intelligenz schon heute ist und durch den stetigen Zuwachs an systemischer Komplexität in Zukunft noch werden kann.

Schon heute untergraben viele KI-Technologien unser Recht auf individuelle Selbstentfaltung, indem sie im Internet kontrollieren, auf welche Informationen wir wie und wann Zugriff haben und damit in hohem Maße manipulativ sind. „Es geht hier um nicht weniger als unsere wichtigsten verfassungsmäßig garantierten Rechte.“, wie es treffend in dem Artikel „Das digitale Manifest“ erschienen im Spektrum beschrieben wird (1).

Ein denkbarer Ansatz für mehr KI-Sicherheit könnte aus einer vielschichtigen Kontrolle über die Technologie durch den Menschen bestehen. Dabei könnten die Gesellschaft, die Politik und die Forschung die drei Hauptinstanzen darstellen.

Kontrolle auf gesellschaftlicher Ebene

Zunächst bedarf es einer allgemeinen Aufklärung über den Einfluss, die Tragweite und die Folgen aktuell eingesetzter und zukünftig möglicher eingesetzter KIs. Diese würde erheblich vorangetrieben werden, durch die Förderung von sachlich-rationalen Diskursen über das Thema. Erreicht werden kann dies auf gesellschaftlicher Ebene durch die Eigeninitiative von Menschen, welche sich über das Thema KI informieren und dann einen Diskurs anstoßen. Dies kann auf jeder Ebene geschehen, egal ob in der Familie, mit Freunden, in Bildungsstätten, im Unternehmen oder als Gesellschaftsumfrage. Durch die Aufklärung und durch anschließende Diskurse, kann die Gesellschaft Forderungen an die Regierung und an die Forschung stellen, welche ihrer Meinung nach wichtig für einen sicheren Umgang mit künstlicher Intelligenz sind. Wer noch mehr zu diesem Ziel beitragen möchte, kann auch darüber nachdenken, seine Karriere entsprechend auszurichten. Ein gutes Leitkonzept bietet das Buch „80,000 hours“ von Benjamin Todd und die dazu passende Internetseite (2).

Kontrolle auf politischer Ebene

Der Staat sollte gesetzliche Rahmenbedingungen für die Herstellung und den Einsatz von künstlicher Intelligenz schaffen, welche nicht maximalen Profit zum höchsten Ziel machen, sondern die menschliche Sicherheit. Diese sollten in Absprache mit der Gesellschaft, der Forschung und der Ethikkommission beschlossen, stetig überprüft und falls nötig angepasst werden. Ein logischer Ansatz für solche Rahmenbedingungen wäre zum Beispiel der Beschluss, dass zur Herstellung und zum Einsatz von KI-Systemen eine Genehmigung vom Staat benötigt wird, ebenso wie zur Durchführung von Forschungsprojekte zu diesem Thema. Zudem könnte festgelegt werden, dass zur Förderung eines transparenten Einsatzes von KI, diese fortan gekennzeichnet werden muss. Anderweitig könnte der Staat für mehr Sicherheit sorgen, durch die priorisierte Vergabe von Forschungsgeldern für Projekte, welche sich mit der Analyse und Prävention von Risiken der KI-Entwicklung beschäftigen. Eine allgemeine strenge Kontrolle der politischen Aktivitäten sowie von Forschungsprojekten zum Thema KI durch die Ethikkommission, ist ratsam.

Kontrolle durch die Forschung

Um die Gesellschaft zu unterstützen, sollte die Forschung allgemeine Informationen zum Thema KI, zu den aktuellen Forschungsergebnissen und dem aktuellen Einsatz von KI für alle Menschen zugänglich machen. Wichtig dafür sind das Sammeln, Vereinfachen und auch Übersetzen der Informationen. Es sollte verstärkt Forschung zum Thema KI-Sicherheit betrieben werden, in welcher wichtige gesetzliche Rahmenbedingungen erarbeitet werden können, welche dann an die Politik weitergegeben werden können. Eine weitere wichtige Aufgabe ist die Erforschung der Leidensfähigkeit von künstlich intelligenten Systemen, welche unter der Aufsicht der Ethikkommission und unter Einhaltung festgelegter ethischer Rahmenbedingungen ablaufen sollte. Internationale Forschungskollaborationen können das Risiko eines technologischen Wettrüstens verringern.