Chatbots, die KI-Technologie nutzen, gibt es bereits seit einer Weile. Viele Unternehmen setzen diese als Ergänzung zu ihren FAQs auf ihren Webseiten sowie als Erweiterung eines Support-Angebotes ein. ChatGPT hat Ende 2022 die Medienlandschaft ordentlich aufgemischt. Die Antworten auf die Fragen, die Nutzende dem Programm stellen konnten, sind teilweise extrem überzeugend. Es ist praktisch nicht zu unterscheiden, ob die Antwort auf eine gestellte Frage von einem Menschen oder einer Maschine stammt. Das macht Eindruck – so viel Eindruck, dass Microsoft ersten bisher unbestätigten Berichten zufolge zehn Milliarden US-Dollar in OpenAI,das Unternehmen, welches ChatGPT entwickelt hat, investieren will. Im Gegenzug solle der Softwareriese aus Redmond 75 Prozent der Gewinne von OpenAI einstreichen – bis die zuvor investierte Summe erreicht sei. Nach Erreichen dieses Ziels solle Microsoft eine Beteiligung von 49 Prozent an OpenAI erhalten. Es geht also bei dieser Technologie auch um eine Menge Geld.
Die potenziellen Einsatzzwecke von KI-basierten Chatsystemen wecken Begierden und Bedenken gleichermaßen. Dass Microsoft seine auseigene Suchmaschine Bing nun mit KI-Unterstützung gegen den Platzhirsch Google ins Rennen schicken will, ist wahrscheinlich. Ebenso denkbar ist eine Integration in Microsofts virtuelle Assistentin Cortana. Viele , von Entwickler*innen und Journalisten bis hin zu Menschen die im Kundendienst und Verkauf tätig sind, sehen die Entwicklungen auch deshalb kritisch, weil sie fürchten, dass eine KI ihre Jobs künftig übernehmen könnte und sie dann ohne Arbeit dastehen. So nachvollziehbar diese Befürchtungen auch sind, ist es mittelfristig eher unwahrscheinlich, dass dieses Szenario eintritt. Das Aufkommen des Automobils hat schließlich auch nicht „über Nacht“ alle Kutscher arbeitslos gemacht.
Missbrauch mit Chatbots?
Natürlich lässt sich eine solche Technologie auch missbrauchen – etwa durch Cyberkriminelle, die mit Hilfe eines Chatbots Betrugsverbrechen begehen. Wo heute ganze Callcenter mit menschlichen Angestellten dazu eingesetzt werden, etwa Support-Scams durchzuführen, steht vielleicht eines Tages ein Computer oder ein Rechenzentrum. In Verbindung mit einer anderen Technologie aus dem Hause OpenAI mit dem Namen Vall-E ergeben sich hier geradezu erschreckende Möglichkeiten. Vall-E ist in der Lage, Stimmen täuschend echt zu imitieren, und das mit relativ wenig Ausgangsmaterial. Eine kleine Stimmprobe genügt. Bis vor Kurzem waren diese Möglichkeiten nur der Science Fiction vorbehalten. Eine solche Stimmimitation aus dem Computer ließe sich im Hier und Jetzt auch einsetzen, um etwa Mobilfunkanbieter zur Preisgabe oder Änderung persönlicher Daten zu bewegen.
Richtig – oder vielmehr falsch – eingesetzt können ChatGPT und Vall-E zu einem Albtraum für die IT-Sicherheit werden. Vor allem dann, wenn sie in der Wirtschaftsspionage zum Einsatz kommen. Im schlimmsten Falle könnte man nicht einmal mehr der Mail oder dem Anruf von Kollegen oder der Chefin trauen, weil die Stimme so täuschen echt gefälscht ist, dass es über das Telefon nicht auffällt. Steckt hier vielleicht auch ein Rückschritt, der es zwingend erforderlich macht, mehr Dinge von Angesicht zu Angesicht zu erledigen, wenn man sicher sein will, dass man nicht gerade mit einer künstlich intelligenten Version des Gegenübers spricht?
Und in Zeiten von immer besser werdenden Deepfakes, die Menschen Dinge tun und sagen lassen können, die sie selbst nie getan haben, könnte dieser Verbund von Technologien sogar Kriege auslösen. Vor diesem Hintergrund wäre es auch nicht verfehlt, hier von einer Risikotechnologie zu sprechen, deren Einsatz genau reguliert werden muss. Sowohl Politik als auch Hersteller haben bereits 2018 deutlich gemacht, dass es hier klare Regulierungen und Gesetze geben muss. So beschäftigt sich auch die Europäische Kommission in einem Entwurf mit dem Thema.
Auch der Einsatz zur Verbreitung und Generierung von Fake News ist absolut denkbar. Denn die von ChatGPT generierten Texte sind auf eine geradezu unheimliche Art und Weise menschlich. Einer der Gründe dafür soll später in diesem Text noch Beachtung finden.
ChatGPT ist auch in der Lage, Programmcode zu schreiben. Eine einfache Anfrage genügt, und schon spuckt der Bot die gewünschten Codezeilen aus. Das weckte natürlich Bedenken, dass Softwareentwickler*innen künftig obsolet werden könnten. Doch in dieser Hinsicht herrscht kein Grund zur Beunruhigung. Einer der Gründe dafür ist, dass ChatGPT nie gelernt hat, Software zu entwickeln. Somit „weiß“ das System auch nicht, wie sicherer Code funktioniert. Der generierte Code ist zwar funktional, aber die Sicherheit darf bezweifelt werden. Quellcode, der von einer KI generiert wurde, kann also Sicherheitslücken enthalten. Es hat sogar schon Versuche gegeben, ChatGPT zur Programmierung von Ransomware zu benutzen. Bisher steckt der Aspekt KI-generierter Software noch in den Kinderschuhen. Schließlich hat noch niemand ganze Software-Suiten ausschließlich mit einer KI generiert. Wie und woran KI-generierte Software erkennbar sein könnte, ist bisher noch unklar – allein in diesem Thema steckt sehr wahrscheinlich Material für mehrere Dissertationen.
Intelligent geschummelt?
Es gibt also keinen Grund für Softwareentwickler*innen, nervös zu werden und um ihre Arbeitsplätze zu fürchten. Bisher gibt es keinen Ersatz für jahrelange Programmiererfahrung sowie den Blick dafür, ob Code sicher ist oder eben nicht. KI-generierte Malware ist zwar bisher (meines Wissens) nicht in Erscheinung getreten – doch wenn das irgendwann passieren sollte, dann ist fraglich, ob sie auch als solche überhaupt erkennbar wäre.
Ein weiterer Missbrauchszweck ist ebenfalls bereits durch die Medien gegeistert: ChatGPT kann innerhalb von Sekunden gut klingende und vollkommen kohärente Aufsätze zu beliebigen Themen verfassen. Kommentar vieler Schüler*innen: "Das hätte ich selber nicht besser schreiben können". Natürlich wird das diejenigen freuen die vielleicht das Abgabedatum für einen Aufsatz vergessen haben. KI-generierte Aufsätze könnten also ohne weiteres demnächst auf den Tischen deutscher Lehrkräfte landen, wenn sich das nicht sogar schon tun. Auch in der akademischen Welt kann das zum Problem werden. Die Tatsache, dass ein von ChatGPT verfasster Text praktisch nicht von einem Text zu unterscheiden ist, der von einem Menschen geschrieben wurde, bedeutet möglicherweise Probleme für die akademische Integrität. Dem tragen auch neue Softwareprogramme Rechnung, die es Lehrkräften ermöglichen soll, von Schüler*innen und Studierenden als eigene Arbeit eingereichte KI-generierte Texte zu erkennen.
Altes Problem in neuem Gewand?
Auch in der Vergangenheit hatten KI-Systeme schon ein Rassismus- und Sexismusproblem. Menschen mit dunkler Hautfarbe sowie Frauen erfahren oft eine Benachteiligung bei Entscheidungen von KI. Das ist jedoch keine inhärente Eigenschaft von künstlicher Intelligenz. Diese Verhaltensweisen sind erlernt, und zwar durch das Ausgangsmaterial für die Trainingsphase sowie die Algorithmen, die der KI zu Grunde liegen. Das Ausgangsmaterial stellen Menschen bereit– und wenn dort bereits eine unterschwellige Verzerrung vorliegt, überträgt sich diese natürlich auch auf das System, welches von seinen Schöpfer*innen lernt. KI kann sich nicht reflektieren, diese Neigung erkennen und das eigene Verhalten entsprechend zu justieren. Sie hat zudem keinen Filter. Diese kleinen Fehler sind es auch, die KI so unfassbar menschlich erscheinen lassen. Bei der Verbreitung von Fake News oder Verschwörungsmythen sorgt das für mehr Akzeptanz bei Menschen, die dafür empfänglich sind.
Grundlegende Probleme
Die Datengrundlage, auf der ein KI-Chatbot lernt, ist also von größter Wichtigkeit. Hier gilt der Grundsatz „Garbage in, garbage out“, zu Deutsch: Füttert man die KI mit Müll, kommt auch nur Müll dabei heraus. Das mussten sowohl Facebook (bzw. Meta) als auch Microsoft schon am eigenen Leib erfahren. Tay, ein von Microsoft entwickelter Chatbot mit KI-Technologien, wurde 2016 für Microsoft zu einem mittelschweren PR-Desaster, nachdem der an Twitter angebundene Bot damit begann, rassistische, und anzügliche sowie sexistische und frauenfeindliche Posts zu veröffentlichen. Tay bezeichnete in einem Post sogar den Holocaust als Erfindung. Der Bot war nicht einmal 48 Stunden online, bevor Microsoft den Stecker zog. Ein zweiter Versuch wurde nach nicht einmal einer Stunde abgebrochen. Das war 2016. Seitdem hat sich viel getan - sollte man zumindest meinen. Doch im August 2022 stellte Meta Blender Bot 3 vor. Dieser Bot offenbarte eine Schwäche, die auch ChatGPT hat. Je nachdem, wie eine Frage gestellt wird, können Antworten unterschiedlich ausfallen. Stellt ein Anwender dem Bot eine Frage, recherchiert er im Hintergrund im Netz – und fällt dabei auch auf weniger zuverlässige Quellen herein. Ergebnis: Blender Bot 3 teilte Verschwörungsmythen und äußerte sich offen antisemitisch. Und auch an Meta-Chef Mark Zuckerberg lässt der Bot kein gutes Haar - er sei „unheimlich und manipulativ“.
Das Problem ist offensichtlich und dem Prozess nicht unähnlich, den auch Menschen durchlaufen.
KI-ndergarten
Ohne ein Computersystem nun vermenschlichen zu wollen: Vielleicht sollten wir moderne KI-Systeme wie Kleinkinder behandeln. Nicht unter emotionalen Gesichtspunkten, sondern vielmehr unter dem Gesichtspunkt der Erziehung. Wenn wir KI nicht von Anfang an richtig erziehen, kann sie eine Menge Schaden anrichten. Wie ein Kleinkind, das laut und vergnügt die Schimpfwörter nachplappert, die es von den Erwachsenen aufgeschnappt hat, muss auch eine KI in die richtige Richtung gelenkt werden. Wir lernen von unserer Umgebung und von den Interaktionen mit anderen. KI macht daraus ein von menschlicher Interaktion losgelöstes Gebilde aus eigenen Regeln, in dem ethische Konzepte keine Rolle spielen. Dieses Regelwerk orientiert sich an dem, was die KI im Internet an Informationen findet – und gerade solche Inhalte, die ethisch fragwürdig sind, erfreuen sich künstlich gehypter Beliebtheit. Und was viel Zuspruch bekommt – egal aus welcher Quelle - muss gut sein. So kommen KI-generierte Posts mit rassistischen Inhalten zustande. Auch hier gilt wieder: Garbage in, Garbage out. KI müsste also eigentlich Medienkompetenz lernen, um seriöse von unseriösen Informationen zu unterscheiden. Und das ist noch einmal ein anderes Kapitel. Fest steht nur: Soziale Netzwerke sind als „Schule“ für angehende KIs vielleicht nicht unbedingt das Richtige.
Die nächste große Aufgabe wird also sein, die Materialien und Daten auszuwählensuchen, von denen Systeme wie ChatGPT lernen. Es bleibt also weiterhin spannend.
Dass menschliches Verhalten so täuschend echt imitierbar ist, gibt neben allem Enthusiasmus auch Anlass zur Sorge – hier werden wir künftig Verfahren entwickeln müssen, die es ermöglichen, einen echten Menschen von einer KI zu unterscheiden – vor allem bei Kontakten die über das Internet oder das Telefon stattfinden. So nützlich KI auch ist und so bequem es auch sein mag, sie als Unterstützung einzubinden – wir sollten ihr also nicht blind vertrauen.
Unter dem Strich
Letztlich nützt es nichts, eine neue Technologie zu verteufeln. Sie ist nun einmal da und wird künftig eine größere Rolle spielen – ob das nun Einzelnen behagt oder nicht. Und von Bedenken und Verteufeln ist noch keine bahnbrechende Technologie wieder verschwunden. Wenn wir in die Geschichte zurückdenken: Beim Aufkommen der Eisenbahn hielt sich hartnäckig das Gerücht, kein Mensch könne Geschwindigkeiten von über 20 km/h überleben und würde entweder ersticken oder im wahrsten Sinne des Wortes zur Bewusstlosigkeit gerüttelt. Das hat die medizinische Wochenzeitschrift “The Lancet”, die noch heute existiert, bereits zum Großteil widerlegt. Hingegen finden sich etwa in der Ausgabe von 25. Januar 1862 Beschreibungen der Reisekrankheit sowie Mahnungen, sich auf einer Bahnreise vor Erkältungen zu schützen. Und heute? Der aktuelle seit 2007 bestehende Geschwindigkeitsrekord für unmodifizierte Serienzüge des französischen TGV steht bei knapp 575 km/h - und der deutsche ICE fährt im Regelbetrieb bis zu 300 km/h.
Die Kunst ist, mit der Entwicklung Schritt zu halten und sich nicht von ihr überholen zu lassen. Wer sich überholen lässt, wird ebenso langsam wie unweigerlich zurückbleiben.