Die Risiken der KI sind real, aber beherrschbar

von Bill Gates

Bill-Gates-AI-Kopie Die Risiken der KI sind real, aber beherrschbar

Bill Gates – das Foto von der AI generiert

Die künstliche Intelligenz verursacht Risiken, die überwältigend erscheinen. Was passiert mit Menschen, die ihren Job durch eine intelligente Maschine verlieren? Könnte KI die Ergebnisse einer Wahl beeinflussen? Was wäre, wenn eine zukünftige KI entscheidet, dass sie keine Menschen mehr braucht und uns loswerden will?

Das sind alles berechtigte Fragen und die Bedenken, die sie aufwerfen, müssen ernst genommen werden. Doch es gibt einen guten Grund zu der Annahme, dass wir mit damit umgehen können: Dies ist nicht das erste Mal, dass große Innovationen scheinbare Bedrohungen mit sich bringen, die kontrolliert werden müssen.

Die ersten Autos oder den Aufstieg des Internets haben wir trotz vieler Warnungen überstanden. Kurz nachdem die ersten Autos unterwegs waren, kam es zu Unfällen. Doch wir haben Autos nicht verboten. Wir haben stattdessen gehandelt und Geschwindigkeitsbegrenzungen eingeführt, uns auf Sicherheitsstandards verständigt und Regeln und Gesetze beispielsweise gegen Trunkenheit am Steuer aufgestellt.

Tiefgreifer Wandel 

Wir befinden uns jetzt im frühesten Stadium eines weiteren tiefgreifenden Wandels, dem Zeitalter der Künstlichen Intelligenz. Die KI verändert sich so schnell, dass ungewiss ist, was als nächstes passieren wird. Somit stehen wir vor großen Herausforderungen und müssen uns fragen, wie KI unsere Gesellschaft und wie sie das Individuum verändern wird.

Dass die digitale Transformation Angst macht, ist verständlich. Doch in der Vergangenheit haben wir bewiesen, dass wir Lösungen finden.

Die KI wird unser Leben revolutionieren. Die Technologie wird dazu beitragen, Probleme in den Bereichen Gesundheit, Bildung oder dem Klimawandel zu lösen, die früher unlösbar schienen. Dennoch möchte ich auf die Bedenken eingehen, die ich am häufigsten höre und lese und von denen ich viele teile. 

Niemand hat alle Antworten  

Aus allem, was bisher über die Risiken von KI geschrieben wurde – und es wurde viel geschrieben – wird eines deutlich: Niemand hat alle Antworten. Mir ist außerdem klar, dass die Zukunft der KI nicht so düster ist, wie manche Leute denken oder so rosig, wie andere denken. Die Risiken sind real, aber ich bin optimistisch, dass sie bewältigt werden können. Während ich die einzelnen Anliegen durchgehe, werde ich auf einige Themen zurückkommen:

  • Viele der durch KI verursachten Probleme haben einen historischen Präzedenzfall. Beispielsweise wird es einen großen Einfluss auf die Bildung haben, aber das galt auch für Taschenrechner vor einigen Jahrzehnten und in jüngerer Zeit auch für die Zulassung von Computern im Klassenzimmer. Wir können aus dem lernen, was in der Vergangenheit funktioniert hat.
  • Viele der durch KI verursachten Probleme können auch mit Hilfe von KI bewältigt werden.
  • Wir müssen alte Gesetze anpassen und neue einführen – genauso wie bestehende Gesetze zur Betrugsbekämpfung auf die Online-Welt zugeschnitten werden mussten.

In diesem Beitrag werde ich mich auf die Risiken konzentrieren, die bereits vorhanden sind oder bald auftreten werden. Ich beschäftige mich nicht damit, was passiert, wenn wir eine KI entwickeln, die im Gegensatz zu den heutigen speziell entwickelten KIs jedes Fach oder jede Aufgabe lernen kann. Unabhängig davon, ob wir diesen Punkt in einem Jahrzehnt oder in einem Jahrhundert erreichen, wird die Gesellschaft mit tiefgreifenden Fragen rechnen müssen. Was wäre, wenn eine Super-KI ihre eigenen Ziele festlegt? Was ist, wenn sie mit der Menschheit in Konflikt geraten? Sollten wir überhaupt eine Super-KI machen?

steve-johnson-ZPOoDQc8yMw-unsplash-1500x630 Die Risiken der KI sind real, aber beherrschbar

Hier einige Punkte über die möglichen längerfristigen Risiken.

Durch KI erzeugte Deepfakes und Fehlinformationen könnten Wahlen und Demokratie untergraben

Die Idee, dass Technologie zur Verbreitung von Lügen und Unwahrheiten genutzt wird, ist nicht neu. Seit Jahrhunderten werden Menschen manipuliert. Doch heute passiert es einfacher und schneller über Chats, Mails oder soziale Netzwerke „Fake News“ zu verbreiten.

KI greift dieses Problem gefälschter Texte auf und erweitert es, sodass praktisch jeder gefälschte Audio- und Videodateien erstellen kann, sogenannte Deepfakes. Wenn Sie eine Sprachnachricht erhalten, die so klingt, als würde Ihr Kind sagen: „Ich wurde entführt. Bitte überweise innerhalb der nächsten zehn Minuten tausend Euro auf ein Konto und rufe auf keinen Fall die Polizei an!“, wird der Anrufer:in den Betrug nicht sofort erkennen. Die emotionale Wirkung ist jedenfalls sehr viel größer und führt zur Verunsicherung. 

Deepfakes 

In größerem Maßstab könnten KI-generierte Deepfakes eingesetzt werden, um eine Wahl zu manipulieren. Natürlich bedarf es keiner ausgefeilten Technologie, um Zweifel am legitimen Gewinner einer Wahl zu säen, aber KI wird es einfacher machen.

Es gibt bereits gefälschte Videos mit gefälschten Aufnahmen bekannter Politiker. Stellen Sie sich vor, dass man am Morgen einer großen Wahl ein Video sieht, das zeigt, wie ein Kandidat eine Bank ausraubt. Das Video geht viral. Es ist eine Fälschung, aber die Medien brauchen mehrere Stunden, um es zu beweisen. Wie viele Menschen werden es sehen und in letzter Minute anders wählen? Dies das Wahlergebnis, insbesondere bei einer knappen Wahl maßgeblich ändern.


Als OpenAI-Mitbegründer Sam Altman kürzlich vor einem US-Senatsausschuss aussagte, konzentrierten sich Senatoren beider Parteien auf die Auswirkungen von KI auf die Wahlen und die Demokratie. Bleibt zu hoffen, dass dieses relevante Thema weiterhin auf der Tagesordnung aller steht.

Wir haben das Problem der Fehlinformationen und Deepfakes sicherlich nicht gelöst. Aber zwei Dinge stimmen mich vorsichtig optimistisch. Zum einen können Menschen lernen, nicht alles für bare Münze zu nehmen. Jahrelang fielen Mail-Benutzer auf Betrügereien herein, bei denen jemand, der sich als nigerianischer Prinz ausgab, als Gegenleistung für die Weitergabe Ihrer Kreditkartennummer eine hohe Auszahlung versprach. Aber irgendwann haben die meisten Menschen gelernt, die betrügerischen Mails zu ignorieren. Je ausgefeilter die Betrügereien wurden, desto ausgefeilter wurden auch viele ihrer Ziele. 

Das andere, was mich hoffnungsvoll macht, ist, dass KI dabei helfen kann, Deepfakes zu erkennen und zu erstellen. Intel hat beispielsweise einen Deepfake-Detektor entwickelt und die Regierungsbehörde DARPA arbeitet an einer Technologie, um zu erkennen, ob ein Video oder Audio manipuliert wurden.

Dies wird ein zyklischer Prozess sein: Jemand findet einen Weg, Fälschungen zu erkennen, jemand anderes findet heraus, wie man dagegen vorgeht, jemand anderes entwickelt Gegenmaßnahmen und so weiter… Es wird vielleicht noch nicht perfekt sein, aber wir werden vermutlich auch nicht hilflos regieren.

KI erleichtert Angriffe auf Menschen und Regierungen

Wenn Hacker heutzutage Schwachstellen in Software finden wollen, tun sie dies mit roher Gewalt: Sie schreiben Codes, die potenzielle Schwachstellen ausmerzt, bis sie einen Weg hineinfinden. Dabei müssen sie viele Sackgassen beschreiten – das kostet Zeit und Geduld.

KI-Modelle indes werden diesen Prozess beschleunigen, indem sie Hackern helfen, effektivere Codes zu schreiben. Sie werden auch in der Lage sein, öffentliche Informationen über Einzelpersonen, etwa wo sie arbeiten und wer ihre Freunde sind, nutzen, um Phishing- Angriffe zu entwickeln, die komplexer sind als die, die wir heute kennen. 

Die gute Nachricht ist, dass KI sowohl für gute als auch für schlechte Zwecke eingesetzt werden kann. Sicherheitsteams der Regierung und des privaten Sektors müssen über die neuesten Tools verfügen, um Sicherheitslücken zu finden und zu beheben, bevor Kriminelle sie ausnutzen. 

Aus diesem Grund sollten wir auch nicht versuchen, die Menschen vorübergehend davon abzuhalten, neue Entwicklungen in der KI umzusetzen, wie einige vorgeschlagen haben. Cyberkriminelle werden nicht aufhören, neue Tools zu entwickeln. Auch Menschen, die KI zur Entwicklung von Atomwaffen und Bioterroranschlägen nutzen wollen, werden es nicht tun. Die Bemühungen, sie zu stoppen, müssen im gleichen Tempo fortgesetzt werden.

Wettrüsten um die KI

Auf globaler Ebene besteht ein damit verbundenes Risiko: ein Wettrüsten um die KI, die zur Planung und Durchführung von Cyberangriffen Länder genutzt werden kann. Jede Regierung möchte über die leistungsstärkste Technologie verfügen, um Angriffe ihrer Gegner abwehren zu können. Dieser Anreiz, niemanden weiterkommen zu lassen, könnte einen Wettlauf um die Entwicklung immer gefährlicherer Cyberwaffen auslösen.

Das ist ein beängstigender Gedanke, aber wir können uns an der Geschichte orientieren. Obwohl das weltweite Atomwaffensperrvertrag einige Fehler aufweist, hat es den umfassenden Atomkrieg verhindert, vor dem sich meine Generation in ihrer Kindheit so sehr gefürchtet hatte. Regierungen sollten die Schaffung eines globalen Gremiums für KI ähnlich der Internationalen Atomenergiebehörde in Betracht ziehen.

KI wird den Menschen Arbeitsplätze wegnehmen

In den nächsten Jahren wird die Hauptauswirkung von KI auf die Arbeit darin bestehen, Menschen dabei zu helfen, ihre Arbeit effizienter zu erledigen. Das gilt unabhängig davon, ob sie in einer Fabrik oder in einem Büro arbeiten, Verkaufsgespräche führen und die Buchhaltung abwickeln. Irgendwann wird die KI gut genug darin sein, um Ihre Mails zu schreiben und Ihren Posteingang zu verwalten. Sie können eine Anfrage in einfachem Englisch oder einer anderen Sprache verfassen und eine ausführliche Präsentation Ihrer Arbeit erstellen.

Es ist sicherlich positiv, wenn die Produktivität steigt. Damit haben Menschen mehr Zeit für andere Dinge. So wird die die Nachfrage nach Menschen, die anderen helfen – zum Beispiel unterrichten, sich um Patienten kümmern und ältere Menschen unterstützen – niemals verschwinden. Es ist jedoch wahr, dass einige Arbeitnehmer Unterstützung und Umschulung benötigen, während wir den Übergang zu einem KI-gestützten Arbeitsplatz vollziehen. Das ist die Aufgabe von Regierungen und Unternehmen und sie müssen diese gut bewältigen, damit die Arbeitnehmer nicht zurückgelassen werden.

Bedenken Sie auch, dass dies nicht das erste Mal ist, dass eine neue Technologie zu großen Veränderungen auf dem Arbeitsmarkt geführt hat. Ich glaube nicht, dass die Auswirkungen der KI so dramatisch sein werden wie die der industriellen Revolution. Damals haben sich Arbeitgeber und Arbeitnehmer angepasst. Der durch die  KI verursachte Wandel wird ein holpriger Übergang sein. 

KI erbt unsere Vorurteile und erfindet Dinge

Täuschung ist der Begriff dafür, wenn eine KI selbstbewusst eine Behauptung aufstellt, die nicht wahr ist. Das passiert normalerweise, weil die Maschine den Kontext Ihrer Anfrage nicht versteht. Bitten Sie eine KI, eine Kurzgeschichte über einen Urlaub auf dem Mond zu schreiben, erhalten Sie möglicherweise eine sehr kreative Antwort. Aber bitten Sie es, Ihnen bei der Planung einer Reise nach Tansania zu helfen, könnte die KI versucht sein, Ihnen ein Hotel zu empfehlen,  dass es nicht gibt.

Ein weiteres Risiko bei künstlicher Intelligenz besteht darin, dass sie bestehende Vorurteile gegenüber Menschen bestimmter Geschlechtsidentitäten, Rassen, Ethnien usw. widerspiegelt oder sogar verschlimmert.

Wie entstehen KI-Vorurteile?

Um zu verstehen, warum die Vorurteile auftreten, ist es wichtig zu wissen, wie die heute gängigsten KI-Modelle funktionieren. Dabei handelt es sich im Wesentlichen um hochentwickelte Versionen des Codes, der es Ihrer Mail-App ermöglicht, das nächste von Ihnen eingegebene Wort vorherzusagen: Sie scannen riesige Textmengen – in manchen Fällen fast alles, was online verfügbar ist – und analysieren ihn, um Muster menschliche Sprache darin zu finden.

Wenn Sie einer KI eine Frage stellen, prüft diese die von Ihnen verwendeten Wörter und sucht dann nach Textabschnitten, die häufig mit diesen Wörtern verknüpft sind. Wenn Sie schreiben „Listen Sie die Zutaten für Pfannkuchen auf“, fällt Ihnen möglicherweise auf, dass die Wörter „Mehl, Zucker, Salz, Backpulver, Milch und Eier“ ​​häufig in diesem Satz vorkommen. Basierend auf dem Wissen über die Reihenfolge, in der diese Wörter normalerweise auftauchen, generiert es dann eine Antwort. (KI-Modelle, die auf diese Weise funktionieren, verwenden einen sogenannten Transformator. GPT-4 ist ein solches Modell.)

mojahid-mottakin-__ftLAifbwA-unsplash-1500x630 Die Risiken der KI sind real, aber beherrschbar

ChatGTP

Dieser Prozess erklärt, warum eine KI voreingenommen erscheinen kann. Es gibt keinen Kontext für die Fragen, die Sie stellen oder die Dinge, die Sie ihm erzählen. Wenn Sie jemandem sagen, dass ein Fehler gemacht wurde, könnte er sagen: „Entschuldigung, ich habe mich vertippt.“ Aber das ist eine Täuschung – es hat nichts getippt. Das heißt nur, weil genug Text gescannt wurde, um zu wissen, dass „Entschuldigung, ich habe mich vertippt“ ein Satz ist, den wir  oft schreiben, wen uns jemand korrigiert hat.

In ähnlicher Weise erben KI-Modelle alle Vorurteile, die in den Text eingebaut sind, auf den sie trainiert werden. Wenn man beispielsweise viel über Ärzte liest und in dem Text hauptsächlich männliche Ärzte erwähnt werden, gehen die Antworten davon aus, dass die meisten Ärzte Männer sind.

Fakten von Fiktionen unterscheiden  

Obwohl einige Forscher glauben, Täuschungen seien ein inhärentes Problem, stimme ich nicht zu. Ich bin optimistisch, dass KI-Modellen im Laufe der Zeit beigebracht wird, Fakten von Fiktionen zu unterscheiden. OpenAI beispielsweise leistet hier vielversprechende Arbeit .

Andere Organisationen, darunter das Alan Turing Institute und das National Institute of Standards and Technology arbeiten an dem Bias-Problem. Ein Ansatz besteht darin, menschliche Werte und übergeordnetes Denken in die KI einzubauen. Es ist vergleichbar mit der Arbeitsweise eines selbstbewussten Menschen: Vielleicht gehen Sie davon aus, dass die meisten Ärzte Männer sind, aber Sie sind sich dieser Annahme bewusst und beziehen Ärztinnen ein. KI kann auf ähnliche Weise funktionieren, insbesondere wenn die Modelle von Menschen mit unterschiedlichem Hintergrund entworfen werden.

Schließlich muss sich jeder, der KI nutzt des Bias-Problems bewusst sein und ein informierter Nutzer werden. Der Aufsatz, den Sie von einer KI verfassen lassen, könnte ebenso voller Vorurteile wie ein sachlicher Fehler sein. Sie müssen sowohl die Vorurteile Ihrer KI als auch Ihre eigenen überprüfen.

Schüler lernen nichts mehr, weil ihnen die KI die Arbeit abnimmt

Viele Lehrer sind besorgt darüber, dass KI ihre Arbeit mit Schülern beeinträchtigen könnte. Denn heute kann jeder mithilfe von KI einen seriösen ersten Entwurf eines Aufsatzes verfassen. Was hält Studierende davon ab, ihn als ihre eigene Arbeit abzugeben?

Es gibt bereits KI-Tools, die lernen, ob etwas von einer Person oder einem Computer geschrieben wurde, sodass Lehrer erkennen können, wenn ihre Schüler nicht selbst arbeiten. Einige Lehrer versuchen jedoch nicht, ihre Schüler davon abzuhalten, KI beim Schreiben zu verwenden – sie ermutigen sie sogar dazu.

Im Januar schrieb eine erfahrene Englischlehrerin namens Cherie Shields in der Education Week einen Artikel darüber, wie sie ChatGPT in ihrem Klassenzimmer einsetzt. Es hat ihren Schülern bei allem geholfen, vom Einstieg in einen Aufsatz über das Verfassen von Gliederungen bis hin zum Feedback zu ihrer Arbeit.

Lehrer müssen die KI-Technologie als weiteres Werkzeug nutzen, auf das Schüler:innen Zugriff haben“, schrieb sie. „So wie wir den Schüler:innen einst beigebracht haben, wie man eine richtige Google-Suche durchführt, sollten Lehrer:innen klare Lektionen darüber entwerfen, wie der ChatGPT-Bot beim Schreiben von Aufsätzen helfen kann. Die Existenz von KI anzuerkennen und Schülern dabei zu helfen, damit zu arbeiten, könnte die Art und Weise, wie wir unterrichten, revolutionieren.“ Nicht jeder Lehrer hat die Zeit, ein neues Werkzeug zu erlernen und zu verwenden, aber Pädagogen wie Cherie Shields argumentieren, dass Schüler:innen davon profitieren werden.

Es erinnert mich an die Zeit, als elektronische Taschenrechner in den 1970er und 1980er Jahren weit verbreitet waren. Einige Mathematiklehrer:innen befürchteten, dass die Schüler:innen keine Grundrechenarten mehr erlernen würden, andere hingegen begrüßten die neue Technologie und konzentrierten sich auf die Denkfähigkeiten, die hinter der Arithmetik stecken.

Es gibt noch eine andere Möglichkeit, wie KI beim Schreiben und beim kritischen Denken helfen kann. Besonders in dieser frühen Zeit, in der Vorurteile immer noch ein Problem darstellten, können Pädagogen KI-Artikel erstellen lassen und dann mit ihren Schüler:innen zusammenarbeiten, um die Fakten zu überprüfen. Bildungsgemeinnützige Organisationen wie die Khan Academy und das OER Project, bieten Lehrer:innen und Schüler:innen kostenlose Online-Tools an, die großen Wert auf das Testen von Behauptungen legen. Es gibt kaum Fähigkeiten, die wichtiger sind, als zu wissen, was wahr und was falsch ist.

Wir müssen sicherstellen, dass Bildungssoftware dazu beiträgt, die Leistungslücke zu schließen, anstatt sie zu verschlimmern. Heutige Software ist hauptsächlich darauf ausgerichtet, bereits motivierte Schüler zu stärken. Es kann einen Studienplan für Sie entwickeln, Sie auf gute Ressourcen hinweisen und Ihr Wissen testen. Aber es weiß noch nicht, wie es Sie in ein Fach einbinden soll, an dem Sie sich noch nicht interessieren. Das ist ein Problem, das Entwickler lösen müssen, damit Studierende aller Art von KI profitieren können.

Was kommt als nächstes?

Ich glaube, es gibt mehr Gründe, optimistisch zu sein, dass wir die Risiken der KI bewältigen und gleichzeitig ihren Nutzen maximieren können. Aber wir müssen schnell handeln.

Fachwissen aufbauen 

Regierungen müssen Fachwissen über künstliche Intelligenz aufbauen, damit sie fundierte Gesetze und Vorschriften erlassen können, die auf diese neue Technologie reagieren. Sie müssen sich mit Fehlinformationen und Deepfakes, Sicherheitsbedrohungen, Veränderungen auf dem Arbeitsmarkt und den Auswirkungen auf die Bildung auseinandersetzen. Um nur ein Beispiel zu nennen: Das Gesetz muss klarstellen, welche Verwendungen von Deepfakes legal sind und wie Deepfakes gekennzeichnet werden sollten, damit jeder versteht, wenn etwas, das er sieht oder hört, nicht echt ist müssen in der Lage sein, einen informierten und durchdachten Dialog mit ihren Wählern zu führen. Sie müssen auch entscheiden, inwieweit sie in diesen Fragen mit anderen Ländern zusammenarbeiten.

Im privaten Sektor müssen KI-Unternehmen ihrer Arbeit sicher und verantwortungsbewusst nachgehen. Dazu gehört der Schutz der Privatsphäre der Menschen, die Sicherstellung, dass ihre KI-Modelle grundlegende menschliche Werte widerspiegeln, die Minimierung von Vorurteilen, die Verbreitung der Vorteile für möglichst viele Menschen. Unternehmen in vielen Wirtschaftszweigen müssen ihren Mitarbeitern beim Übergang zu einem KI-zentrierten Arbeitsplatz helfen, damit niemand zurückbleibt. Und Kunden sollten immer wissen, wann sie mit einer KI und nicht mit einem Menschen interagieren.

Öffentliche Debatten 

Abschließend ermutige ich alle, die Entwicklungen in der KI so weit wie möglich zu verfolgen. Es ist die transformativste Innovation, die jeder von uns in seinem Leben erleben wird. Eine gesunde öffentliche Debatte hängt davon ab, dass jeder über die Technologie, ihre Vorteile und Risiken Bescheid weiß. Die Vorteile werden enorm sein und der beste Grund zu der Annahme, dass wir die Risiken bewältigen können, ist, dass wir es schon einmal getan haben.

Übersetzung des Blog Beitrags „The risk of the Ai are real, but manageable“ von Bill Gates.
Foto: Unplash