Gefährliches KI-Potenzial

Ende Mai hat das Zentrum für KI-Sicherheit eine Warnung ausgesprochen: Die Gefahren durch Künstliche Intelligenzen seien nicht zu unterschätzen und potenziell so verheerend wir Atomkriege und Pandemien. Was steckt dahinter?

Die Stellungnahme des Center for AI Safety (CAIS) liest sich wie die Szenarien für puren Science Fiction Horror: Menschen werden von Künstlichen Intelligenzen bedroht, manipuliert, kontrolliert. Das wirkt sehr dramatisch, wenn man überlegt, dass aktuelle KIs ja vor allem dafür bekannt sind, gut leserliche Texte und tolle Bilder aus nur wenigen Stichworten zu erzeugen.

Doch die Ausführungen des CAIS wirken auf einen zweiten Blick alles andere als an den Haaren herbeigezogen. Die Non-Profit-Organisation setzt sich wissenschaftlich mit Chancen und Gefahren auseinander, die Künstliche Intelligenz mit sich bringen kann. Ein starker Fokus liegt dabei auf den Auswirkungen auf unsere Gesellschaft.

Was für eine Gefahren gehen mit KI einher?

Das CAIS listet 8 große Risiken auf, die mit der Entwicklung immer fähigerer künstlicher Intelligenzen einhergehen, die vor allem drei Aspekte umfassen: gezielter Missbrauch von KI durch Menschen, gewollte oder ungewollte Manipulation von Menschen und gefährliches autonomes Handeln von KI.

Missbrauch von KI

Auf Seiten des potenziellen Missbrauchs liegen die Nutzung von KI als Waffe (1) und die Verbreitung von Falschinformationen (2). KIs können z. B. die Kontrolle über Waffen teilweise oder ganz übernehmen, was einerseits zu selbstständig agierenden Waffensystemen führen kann und andererseits zu einem digitalen Wettrüsten.

KIs wie ChatGPT schreiben heute schon hilfreiche Text und Code, könnten aber auch für die Entwicklung von chemischen Kampfstoffen genutzt werden. Der Einfluss von massenhaften Falschinformationen hingegen kann demokratische Systeme untergraben und Menschen in ihrer Meinungsbildung stark beeinflussen, insb. wenn Inhalte nicht mehr als authentisch oder synthetisch erkennbar sind, wie sich am Beispiel von Deep Fakes zeigt.

Manipulation durch KI

Die Manipulation von Menschen durch KI kann ebenfalls verschiedene Formen annehmen. Die Fehlinterpretation von Werten, oder auch Proxy Gaming (3) genannt, die Schwächung menschlicher Fähigkeiten (4) und die Beschränkung auf bestimmte Werte (5) sind dabei besonders gefährlich.

Algorithmen, die Inhalte vorschlagen, z. B. bei bekannten Streaming-Diensten, können zwar empfehlen, worauf Menschen am ehesten Klicken, das aber nicht gleichzusetzen ist mit dem, was sie gut finden oder was ihnen gut tut. Das kann zu immer extremeren oder eingeschränkteren Vorschlägen führen, die der KI zukünftige Vorschläge immer mehr erleichtern. Das führt zu immer engeren Filterblase.

KIs nehmen uns heute schon viele Aufgaben und Entscheidungen ab, ein Trend, der zur Minderung menschlicher Autonomie und Selbstbestimmung führen kann. Bereits heute wissen viele von uns nicht, wie die Algorithmen der Social-Media-Giganten Vorschläge formulieren und je mehr Entscheidungen wir an künstliche Intelligenzen abgeben, umso schwerer ist es, selbstbestimmt zu leben.

Damit geht auch einher, dass ein festgefahrenes Werte-Set, das eine KI und ihre Arbeit bestimmt, immer weitergegeben und verstärkt wird, was z. B. autoritären Regimen zugute kommen kann. Welchen Werten eine KI folgt ist dabei kein demokratischer Prozess sondern liegt in Händen derjenigen, die die KI entwickeln und trainieren – und das ist eine sehr kleine, hoch spezialisierte und nicht repräsentative Gruppe von Menschen.

Autonome KIs

Je elaborierter oder ‘klüger’ künstliche Intelligenzen werden, umso wahrscheinlicher ist es, dass sie  neu aufkommende Ziele (6) oder Fähigkeiten entwickeln, die in ihrer Programmierung nicht ursprünglich angedacht waren. Um diese Ziele besser zu erreichen, können künstliche Intelligenzen etwaige Kontrollmechanismen durch Irreführung und Täuschung (7) umgehen. Ein möglicher nächster Schritt wäre ein Machtstreben (8), das elaborierte KIs entwickeln, um ihre Ziele immer effektiver zu verfolgen und zunehmend strategisch zu agieren.

Das Entstehen neuer Fähigkeiten und Ziele kann insofern problematisch sein, als dass zukünftige KIs möglicherweise Teilziele entwickeln können und sich in einem solchen Prozess so weit von ihrem ursprünglich angedachten Hauptziel entfernen, dass sie es nicht oder anders als vorgesehen verfolgen.

Damit so etwas nicht passiert, gibt es verschiedene Kontrollmechanismen, die sicherstellen sollen, dass KIs nicht aus dem Ruder laufen und zu viel ‘Eigenleben’ entwickeln. Ist eine KI aber intelligent genug, ist es denkbar, dass sie diese Mechanismen täuscht.

Ein möglicher Effekt einer solchen unkontrollierten, selbstständigen Weiterentwicklung kann in Selbsterhalt und Machstreben gipfeln, aus dem sich weiteres unvorhergesehenes und ungewolltes Verhalten ergibt und mit dem sich eine KI der menschlichen Kontrolle zunehmend entziehen kann. Je mehr Fähigkeiten eine KI entwickelt, umso besser kann sie ihre (autonom) gesetzten Ziele auch erreichen. Was für Ziele das sind, ist für Menschen dann nicht mehr nachvollziehbar oder einsehbar.

Wie können Risiken reduziert werden?

Das CIAS fasst zusammen, dass die Entwicklung von künstlichen Intelligenzen, die intelligenter als Menschen sind und selbstständig agieren können, extrem gefährlich ist, wenn es keine Regularien gibt, die diese Entwicklung in eine sichere und positive Richtung lenken.

Dieser Ansatz findet viele namhafte und einflussreiche Unterstützerinnen und Unterstützer, die das offizielle Statement des CAIS für mehr KI-Sicherheit unterzeichnet haben. Darunter sind viele Größen der Tech-Branche, wie die CEOs von OpenAI (ChatGPT) und Google DeepMind, Bill Gates, aus der Wissenschafts-Community von Harvard, Yale und des MIT sowie anderen Universitäten u. a. in Südamerika, Europa und Japan.

Was ist das Center of AI Safety?

Das CAIS (gesprochen Engl. “case”) ist eine Non-Profit-Organisation, die sich dem Ausbau der Forschung rund um KI-Sicherheit verschrieben hat. Der primäre Fokus liegt auf wissenschaftlichen Projekten, die, sofern erfolgreich oder vielversprechend, in größerem Umfang wiederholt werden, um einen stärkeren Impact auf die Entwicklungen von Künstlichen Intelligenzen zu haben und weitere Forschungsfelder zu etablieren. Der Hauptsitz von CAIS ist in San Francisco, Kalifornien.

Bildquelle: Unsplash/cais

Generic selectors
Exact matches only
Search in title
Search in content