piwik-script

English
    Chair of Bioinformatics

    Künstliche Intelligenz

    KI ermöglicht es technischen Systemen, ihre Umwelt wahrzunehmen, mit dem Wahrgenommenen umzugehen und Probleme zu lösen, um ein bestimmtes Ziel zu erreichen.“, so steht es in einem Artikel (1) zu künstlicher Intelligenz veröffentlich auf der Seite des europäischen Parlaments. Den meisten Menschen ist nicht klar, wie oft ihnen das, was als künstliche Intelligenz bezeichnet wird, begegnet. Viele bekannte Plattformen wie YouTube und Google nutzen künstlich intelligente Programme, um jede Aktivität des Nutzers auf ihrer Plattform zu analysieren, ein Profil zu erstellen und auf dieses Profil abgestimmte Suchergebnisse und Vorschläge anzuzeigen, mit dem Hauptziel den Nutzer dazu zu bringen, möglichst viel Zeit auf der Plattform zu verbringen. Ein Algorithmus, welcher zum Beispiel durch die Aktivitäten eines Nutzers im Netz seine Lieblingsband erraten kann, bezeichnet man als schwache KI. Als starke KI wird hingegen ein Computerprogramm bezeichnet, welches über die Aufgabe hinausdenkt, für welche es ursprünglich kreiert wurde und die gleichen intellektuellen Fähigkeiten aufweist wie ein Mensch oder ihn sogar übertrifft. Das wäre also erreicht, wenn der Liebingsband-Erkennungsalgorithmus einem plötzlich auch vorschlagen würde, welches Outfit am besten zu der Musikscene deiner Lieblingsband passt. Die Entwicklung einer starken KI scheint für viele Menschen das Angst-Thema zu sein, wenn es um künstliche Intelligenz geht. Doch viel weniger die Aussicht auf die Entwicklung von menschenähnlichen Robotern, welche versuchen uns zu vernichten lässt das Thema KI zu einem der größten Systemrisiken unserer Zeit werden. Während die Entwicklung starker KI im Moment noch nicht greifbar ist, sind schwache KI welche uns alltägliche Arbeiten und Entscheidungen abnehmen schon fest in das alltägliche Leben vieler Menschen integriert. Während wir uns immer entscheiden können, ob wir ein Suchergebnis oder einen Vorschlag, den uns eine KI im Internet anbietet, annehmen wollen oder nicht, kann nicht sichergestellt werden, ob wir bei einer Autofahrt gesteuert durch eine KI noch einen Einfluss auf das Fahrverhalten der KI nehmen können, sitzen wir erst einmal automatisch angeschnallt in einem Auto ohne Lenkrad. Fragen, inwieweit wir in welchen Fällen die Entscheidungsgewalt an programmierte Algorithmen und Maschinen abgeben wollen und ob wir mit allen möglichen Folgen einverstanden sind, sind Fragen, die wir vor der Erschaffung solcher Maschinen beantworten sollten. Eine Chance diese Fragen im Nachhinein zu beantworten und diesbezügliche Änderungen vorzunehmen zu können, ist nicht gewiss.


    Ansätze für mehr KI-Sicherheit

    Das grundlegende Ziel für einen sicheren Umgang mit künstlicher Intelligenz ist, dass letztendlich Menschen die Kontrolle über die Technologie behalten, und zwar nicht einige wenige, sondern im Idealfall jeder Einzelne. Ohne Einrichtung vielschichtiger Kontrollinstanzen ist es sehr wahrscheinlich, dass einige wenige Menschen die Kontrolle über die KI-Technologie übernehmen und damit viele Menschen kontrollieren oder die KI-Technologie uns am Ende selbst kontrolliert. Dieser Ausgang ist logisch absehbar, wenn man verstanden hat, wie mächtig künstliche Intelligenz schon heute ist und durch den stetigen Zuwachs an systemischer Komplexität in Zukunft noch werden kann.

    Schon heute untergraben viele KI-Technologien unser Recht auf individuelle Selbstentfaltung, indem sie im Internet kontrollieren, auf welche Informationen wir wie und wann Zugriff haben und damit in hohem Maße manipulativ sind. „Es geht hier um nicht weniger als unsere wichtigsten verfassungsmäßig garantierten Rechte.“, wie es treffend in einem Artikel über „Das digitale Manifest“ erschienen im Spektrum beschrieben wird (1).

    Ein denkbarer Ansatz für mehr KI-Sicherheit, könnte aus einer vielschichtigen Kontrolle über die Technologie durch den Menschen bestehen. Dabei könnten die Gesellschaft, die Politik und die Forschung die drei Hauptinstanzen darstellen.

    Kontrolle auf gesellschaftlicher Ebene

    Zunächst bedarf es einer allgemeinen Aufklärung über den Einfluss, die Tragweite und die Folgen aktuell eingesetzter und zukünftig möglicher eingesetzter KI’s. Diese würde erheblich vorangetrieben werden, durch die Förderung von sachlich-rationalen Diskursen über das Thema. Erreicht werden kann dies auf gesellschaftlicher Ebene durch die Eigeninitiative von Menschen, welche sich über das Thema KI informieren und dann einen Diskurs anstoßen. Dies kann auf jeder Ebene geschehen, egal ob in der Familie, mit Freunden, in Bildungsstätten, im Unternehmen oder als Gesellschaftsumfrage. Durch die Aufklärung und durch anschließende Diskurse, kann die Gesellschaft Forderungen an die Regierung und an die Forschung stellen, welche ihrer Meinung nach wichtig für einen sicheren Umgang mit künstlicher Intelligenz sind. Wer noch mehr zu diesem Ziel beitragen möchte, kann auch darüber nachdenken seine Karriere entsprechend auszurichten. Ein gutes Leitkonzept bietet das Buch “80,000 hours“ von William MacAskill und die dazu passende Internetseite (2).

    Kontrolle auf politischer Ebene

    Der Staat sollte gesetzliche Rahmenbedingungen für die Herstellung und den Einsatz von künstlicher Intelligenz schaffen, welche nicht maximalen Profit zum höchsten Ziel machen, sondern die menschliche Sicherheit. Diese sollten in Absprache mit der Gesellschaft, der Forschung und der Ethikkommission beschlossen, stetig überprüft und falls nötig angepasst werden. Ein logischer Ansatz für solche Rahmenbedingungen wäre zum Beispiel der Beschluss, dass zur Herstellung und zum Einsatz von KI-Systemen eine Genehmigung vom Staat benötigt wird, ebenso wie zur Durchführung von Forschungsprojekte zu diesem Thema. Zudem könnte festgelegt werden, dass zur Förderung eines transparenten Einsatzes von KI, diese fortan gekennzeichnet werden muss. Anderweitig könnte der Staat für mehr Sicherheit sorgen, durch die priorisierte Vergabe von Forschungsgeldern für Projekte, welche sich mit der Analyse und Prävention von Risiken der KI-Entwicklung beschäftigen. Eine allgemeine strenge Kontrolle der politischen Aktivitäten sowie von Forschungsprojekten zum Thema KI durch die Ethikkommission, ist ratsam.

    Kontrolle durch die Forschung

    Um die Gesellschaft zu unterstützen, sollte die Forschung allgemeine Informationen zum Thema KI, zu den aktuellen Forschungsergebnissen und dem aktuellen Einsatz von KI für alle Menschen zugänglich machen. Wichtig dafür sind das Sammeln, Vereinfachen und auch Übersetzen der Informationen. Es sollte verstärkt Forschung zum Thema KI-Sicherheit betrieben werden, in welcher wichtige gesetzliche Rahmenbedingungen erarbeitet werden können, welche dann an die Politik weitergegeben werden können. Eine weitere wichtige Aufgabe ist die Erforschung der Leidensfähigkeit von künstlich intelligenten Systemen, welche unter der Aufsicht der Ethikkommission und unter Einhaltung festgelegter ethischer Rahmenbedingungen ablaufen sollte. Internationale Forschungskollaborationen können das Risiko eines technologischen Wettrüstens verringern.

    Literatur zu den Ansätzen für mehr KI-Sicherheit

    1.  Helbing et al. (2022). Digitale Demokratie statt Datendiktatur. 17.12.2015, Spektrum.  zuletzt aufgerufen am: 19.10.22

    2. Arden Koehler. How to use your career to help reduce existential risk. 80,000 Hours Website, August 2020.  zuletzt aufgerufen am: 19.10.22