Re: Sag, wo ist der Entenstern? – Ein nächtliches Zwiegespräch zwischen der Maschine und mir
Datum: 03. Mai 2023 13:35
Untenstehend ein Interview der Lokalzeitung "Hamburger Abendblatt" mit der Hamburger Professorin Simon, die an der Hamburger Uni im Fachbereich Informatik lehrt. Da der Link vermutlich nur für Abonnenten funktioniert, habe ich den Text kopiert, auch wenn dadurch einige Formatierungen und die Grafiken verloren gehen.
ChatGPT – das sind die großen Gefahren
Die Entwicklung der Software-Systeme geht viel zu schnell, sagt Hamburger Expertin. ChatGPT produziert Texte teils ohne jeden Bezug zur Wahrheit
Insa Gall
Die Hamburger Professorin Judith Simon ist eine gefragte Expertin zum Thema Künstliche Intelligenz und zur neuen Software ChatGPT. Vergangene Woche war sie zu einer Anhörung im Bundestag geladen, im Deutschen Ethikrat hat sie Ende letzten Jahres als Sprecherin der Arbeitsgruppe Mensch und Maschine eine Stellungnahme erarbeitet. Gefragt ist sie wohl auch deshalb, weil sie einen ungewöhnlichen Werdegang hat: Simon, ursprünglich Diplom-Psychologin, wurde in Philosophie promoviert und befasst sich mit Technikphilosophie und Ethik in der Informationstechnologie. An der Universität Hamburg lehrt die Philosophiewissenschaftlerin im Fachbereich Informatik – eine ziemliche Besonderheit.
Und auch wenn die Hamburgerin sich seit Langem mit künstlicher Intelligenz und auch computergenerierten Sprachmodellen beschäftigt, war sie von der rasanten Entwicklung von ChatGPT überrascht. Das Tempo, mit dem diese neuen Systeme derzeit auf den Markt geworfen würden, sei viel zu hoch, sagt sie. „Das macht mir Sorgen.“ Angesichts der Schnelligkeit, mit der die neue Technik „in alle möglichen Gesellschaftsbereiche eindringt und diese verändert, sind wir als Gesellschaft überfordert, angemessen zu reagieren. Und auch die Regulierung kann hier nicht Schritt halten.“
Hamburger Abendblatt HA):
Die künstliche Intelligenz entwickelt sich rasend schnell, auch für Laien sichtbar ist die schnelle Folge der Updates von ChatGPT, die diese sprachbasierte Form der künstlichen Intelligenz (KI) einer breiten Masse zugänglich macht. Was wird KI in zehn Jahren nach Ihrer Einschätzung alles können?
Prof. Judith Simon:
Das Tempo der Entwicklung ist derzeit so hoch, dass das kaum absehbar ist. Entscheidend in Bezug auf aktuellen Entwicklungen ist, dass sich nicht nur die Technologie schnell entwickelt hat. Wovon wir derzeit so überrollt werden, ist, dass Systeme auf den Markt geworfen werden, die einerseits ein so breites Anwendungsfeld haben und zum anderen so schnell und einfach zu benutzen sind. Jeder kann auf einmal mit minimalen technischen Voraussetzungen und Kompetenzen in Sekundenschnelle Texte, Bilder und Videos von hoher Qualität produzieren. Was derzeit die großen Disruptionen hervorruft, ist also nicht nur die schnell voranschreitende Technologie, sondern dass sie frei verfügbar, einfach und unmittelbar nutzbar und breit anwendbar ist.
HA: Geht die Entwicklung zu schnell?
Ja, mir geht die Entwicklung derzeit zu schnell – vor allem das Tempo, mit dem neue Produkte auf den Markt geworfen werden. Im November kam ChatGPT, bald darauf ChatGPT4 mit der Kombination von Sprache und Bild und der nächste Schritt war die Anbindung von ChatGPT ans Internet, sodass das System nicht auf Daten bis zum Jahr 2021 beschränkt war, sondern auch Aktuelles abfragbar ist. Das Tempo, mit dem Entscheidungen getroffen werden, weil man der erste auf dem Markt sein will, macht mir Sorgen – wie auch vielen Informatikern und Informatikerinnen.
HA: Was befürchten Sie?
Aufgrund des hohen Tempos, mit dem ChatGPT und ähnliche Tools derzeit in alle möglichen Gesellschaftsbereiche eindringen und diese verändern, sind wir als Gesellschaft überfordert, angemessen zu reagieren. Und auch die Regulierung kann hier nicht Schritt halten. Der KI-Act der EU liegt als Vorschlag vor, muss aber noch vom Europarat und EU-Parlament verabschiedet werden – das dauert. Und wenn er dann kommt, dürfte er teilweise schon wieder veraltet sein. Als ChatGPT im November freigeschaltet wurde, schossen die Nutzerzahlen in kürzester Zeit in die Höhe, eben weil es so einfach nutzbar, frei zugänglich ist und sprachliche oder visuelle Ausgaben von hoher Qualität in Sekundenschnelle produziert werden – aber eben ohne jedweden Bezug zur Wahrheit. Sprache ist unser wichtigstes Kommunikationsmittel, Bilder von entscheidender Bedeutung für Evidenz. Darauf muss die Gesellschaft erst mal reagieren.
HA:
Schnell wurde die Anwendung in Schule und Universität diskutiert. Aufsätze, Referate und Hausarbeiten scheinen auch blitzschnell durch ChatGPT erstellbar, wenn man dem System die richtigen Aufgaben stellt.
ChatGPT stellt uns in der Tat vor die Herausforderung, wie wir künftig noch faire Prüfungen organisieren können, wenn wir nicht wissen, wer etwas selbst geschrieben oder teilweise oder vollständig hat von der KI schreiben lassen. Unter anderem wird man wohl Prüfungsformate ändern müssen.
HA:
Wie denn?
Es dürfte mehr mündliche Prüfungen geben, diese Form ist betrugsresistenter. ChatGPT fordert uns aber auch heraus, über Ziele, den Wert und das Wesen von Bildung nachzudenken. Was müssen künftig Bildungsinhalte sein? Welche Kompetenzen brauchen wir noch – und welche vielleicht nicht mehr? Welches Wissen ist relevant? Dieser Frage müssen sich auch die Universitäten stellen. Wenn Studierendengruppen so groß sind, dass man nur stupide Wissen abprüfen kann, ist das ohnehin nicht ideal, und man muss sich nicht wundern, wenn Aufgaben an die KI delegiert werden. Kleine Seminare mit einer überschaubaren Zahl von Studierenden wären schön – sind aber oftmals nicht möglich.
HA:
ChatGPT macht aber auch Fehler. Selbst seine Entwickler geben zu, dass die ausgegebenen Informationen nicht immer der Wahrheit entsprechen und somit Falschinformationen verbreitet werden können.
Natürlich macht das System Fehler, man muss sich ja klarmachen, wie es funktioniert. Es hat viele Texte analysiert, Muster erkannt und „weiß“, wie Texte strukturiert sind und Worte zusammenhängen – das ist eine rein statistische Weise, Texte zu erstellen. Je standardisierter die Texte sind, desto einfacher ist es für die KI, sie zu produzieren. Texte und Aussagen klingen eloquent und plausibel, aber sie basieren lediglich auf Wortkombinationen und Sprachmustern. Dadurch können sie falsch und unsinnig, sein, die Quellen frei erfunden – aber dies ist nicht immer leicht zu erkennen.
HA:
Ein gravierender Nachteil …
Täuschung scheint eines der Grundprobleme zu sein. Manipulation durch Texte und Bilder gab es schon vorher. Aber die Einfachheit, mit der das jetzt möglich ist, die Breite der Verfügbarkeit und die Qualität der Produkte ist jetzt eine ganz andere. Das wird nicht alles über Regulierung zu kanalisieren sein, sondern auch durch neue Normen und Praktiken. Aber auch dafür ist kaum Zeit, wenn im Wochenrhythmus neue Updates kommen.
HA:
Geht die Entwicklung so schnell und schafft Fakten, sodass die Regulierung gar nicht hinterherkommt?
Das ist mit Sicherheit so. Die rasante Entwicklung von generativer KI hat viele überrascht, mich auch. Die Ursache für diese große Veränderung ist, dass die Systeme nun so einfach von jedermann nutzbar sind, die Anwendungskontexte aufgrund der Produktion von Text, Bild und Video so breit und die Nutzerzahlen entsprechend so groß sind. Schon gibt es die ersten ökonomischen Verwertungsmodelle, keiner will hintendranhängen. Diese Dynamik hat man völlig unterschätzt.
HA:
Welche Regulierung müsste es geben?
Ich bin keine Juristin. Der Entwurf des KI-Acts der EU fokussiert auf Hochrisikosysteme, darunter fällt ChatGPT derzeit nicht. Wenn man lediglich bestimmte Anwendungskontexte reguliert, ist die Frage, ob das einer All-purpose-Software wie ChatGPT, die unendliche viele Anwendungsmöglichkeiten bietet, gerecht wird oder ob man das nicht doch auf der Ebene der Grundlagen dieser Technologie regulieren muss und wie das geschehen kann. Ein Rechtsrahmen muss so gestaltet werden, dass er nicht von der nächsten technischen Entwicklung sofort wieder überrollt wird.
HA:
Italien hat die Nutzung von ChatGPT vorübergehend gestoppt, mit dem Argument des Datenschutzes. Der richtige Weg?
Einerseits gibt es tatsächlich massive Datenschutzprobleme mit ChatGPT. Andererseits wurde vermutlich einfach geschaut, welche rechtlichen Hebel es überhaupt gibt, um zu reagieren, und da die Datenschutzgrundverordnung bereits in Kraft ist, war sie eine Möglichkeit, Ähnliches gilt für das Urheberrecht. Datenschutz und Urheberrecht – das sind nicht unbedingt die Hauptprobleme bei ChatGPT, aber hier gibt es bereits existierende rechtliche Rahmen um einzugreifen. Damit hat man zumindest einmal auf die Bremse gehauen. Auch sendet das die Botschaft: Ihr könnt nicht einfach Systeme auf den Markt bringen, ohne die grundlegenden Regeln zu beachten. Die Instrumente, die wir haben, sollten wir auch nutzen, um das Signal an die Unternehmen zu senden: Bestimmte Standards müsst ihr einhalten.
HA:
In einem offenen Brief, unterzeichnet von mehr als 1000 Tech-Experten, darunter Unternehmer wie Elon Musk und Apple-Mitgründer Steve Wozniak, hieß es: „In den letzten Monaten haben sich die KI-Labore einen unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe geliefert, die niemand – nicht mal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann“. Musk gehörte selbst mit zu den Gründern von OpenAI. Kurz nach Veröffentlichung des Briefes wurde bekannt, dass er selbst einen neuen ChatGPT-Konkurrenten namens TruthGPT plant.
Meine Haltung zu diesem Brief ist ambivalent. Auf der einen Seite hatte ich auch den Eindruck, dass eine Pause gut wäre. Auch einige Aspekte des Briefs, wie der Ruf nach stärkerer Kontrolle, sind sinnvoll und wurden auch schon vorher von vielen anderen geäußert. Andererseits sind einige der Akteure hinter dem Brief, wie Elon Musk, mehr als fragwürdig, und auch der Fokus auf existenzielle Risiken und die Gefahr der Auslöschung der Menschheit ist problematisch und lenkt von drängenderen, aktuellen Problemen ab.
HA:
Sie meinen die Sorge, dass sich KI in gewisser Weise verselbstständigt und Macht bekommt, unabhängig von ihren Schöpfern, und Kontrolle über menschliches Verhalten, Ressourcen und Institutionen gewinnt.
Das ist genau einer der problematischen Aspekte des Briefes: dieser Fokus auf fiktive zukünftige Systeme und das Abgeben der Verantwortung an scheinbar autonome Maschinen. Man muss ganz klar sagen: Die jetzigen Systeme haben kein Bewusstsein. Das sind rein statistisch operierende Maschinen, sie verstehen Sprache nicht, sondern berechnen die Wahrscheinlichkeit von Wortkombinationen. Es erscheint dem Menschen im Austausch nur manchmal so, als würden sie Sprache verstehen oder hätten gar Bewusstsein. Ob sie in Zukunft irgendwann einmal so etwas Ähnliches entwickeln wie das, was wir Verständnis oder gar Bewusstsein nennen, weiß man nicht.
HA:
Wird künstliche Intelligenz immer von Menschen kontrollierbar sein?
Wichtig ist mir: Es sind immer Menschen, die die Entscheidung treffen, Systeme zu entwickeln. Die Entscheidungen von OpenAI, ChatGPT so früh und mit so vielen Schwachstellen auf den Markt zu werfen und sie später sogar mit einer Live-Schnittstelle zum Internet zu versehen, fand ich problematisch. Meine Sorge ist nicht, dass diese Systeme die Weltherrschaft übernehmen, sondern eher, dass Menschen mit sehr viel Macht diese missbrauchen, um ihre Zwecke zu erreichen.
HA:
Inwiefern?
Systeme wie ChatGPT können zu manipulativen Zwecken eingesetzt werden und sind sehr mächtige Werkzeuge für Propaganda und Destabilisierung, auch durch politische Akteure, die daran ein Interesse haben. Beunruhigend finde ich weniger, was die Technik macht – die macht nämlich derzeit von selbst nichts – , sondern die Entscheidungen, die einige wenige Menschen treffen, welche dann massive Folgen weltweit haben, sowie die Möglichkeiten, grundlegende Prozesse der Information und Kommunikation auf extrem einfache und schnelle, aber nachhaltige Weise zu stören – mit den daraus resultierenden Gefahren für unsere Demokratie.
HA:
Könnte man diesen Programmen beibringen, wo etwa moralische oder politische Grenzen liegen?
Eine Möglichkeit, die hier genutzt wird, ist, dass man die Antwort auf bestimmte Anfragen (Prompts) verweigert, etwa mit dem Hinweis, dass der Prompt problematisch ist oder das System ein ChatBot, der zu bestimmten Dingen nichts sagen kann. Andererseits geht es auch darum, problematische Aspekte – wie beispielsweise diskriminierende Tendenzen in den Systemen – zu reduzieren, die durch die Trainingsdaten importiert wurden.
HA:
Wir haben viel über Gefahren gesprochen, gibt es auch Vorteile?
Software wie ChatGPT kann Arbeit erleichtern, indem die Alltagsproduktion von Texten an die Systeme delegiert werden. KI im Allgemeinen hat sehr viele Anwendungsgebiete, weil es im Grunde auf der Erkennung von Mustern beruht und zur Klassifikation und Prognose verwendet werden kann. So lässt sich in der Medizin beispielsweise Krebsgewebe besser aufspüren und von gesundem Gewebe unterscheiden. KI-Systeme könnten auch zur Unterstützung von Entscheidungen eingesetzt werden, beispielsweise in der öffentlichen Verwaltung. Das kann extrem hilfreich und unproblematisch sein, etwa wenn ich effizientere Routen für die Müllabfuhr berechne. Aber in dem Moment, wo ich Prognosen über Menschen anstelle, wird es schon wieder sehr viel schwieriger zu bewerten. So werden datenbasierte KI-Systeme verwendet, um vorherzusagen, wo die nächsten Verbrechen stattfinden könnten oder ob von einer Person, die in der Vergangenheit straffällig geworden ist, auch zukünftig Straftaten zu erwarten sind. Ist jemand kreditwürdig? Ist jemand zukünftig ein guter Mitarbeiter oder eine gute Mitarbeiterin? Was kann ich aus den Bewerbungsunterlagen an Mustern erkennen, die vorhersagen, dass jemand in zehn Jahren als Abteilungsleiter geeignet ist?
HA:
Die Frage scheint, ob diese Systeme die Handlungsmöglichkeiten von Menschen erweitern oder verringern.
Das war die Leitfrage, mit der wir uns im Ethikrat beschäftigt haben. Bleiben wir bei dem Beispiel aus der Medizin: Das erweitert die Möglichkeiten des Diagnostikers und kommt den Patienten zugute, weil vielleicht Krebs früher erkannt wird. Aber was bedeutet es, wenn in der Folge Kompetenzen verloren gehen, weil sie an die Maschine delegiert werden, und dann die Technik ausfällt? Auch funktionieren die KI-Systeme oftmals nicht für alle Nutzergruppen gleich gut. Wenn das System zur Erkennung von Hautkrebs etwa auf helle Haut trainiert ist, ist die Unterscheidungsfähigkeit zwischen gesundem und krankhaftem Gewebe auf dunkler Haut vielleicht schlechter und die Fehlerquote höher.
HA:
Und im Journalismus? Könnte dieses Interview in zehn Jahren von ChatGPT geführt werden?
Möglich. Die Software und ihre künftige Weiterentwicklung werden auf jeden Fall das Berufsfeld von Journalisten sehr verändern. Wahrscheinlich wird es viel stärker zu ihrer Aufgabe gehören, Fakten zu checken und KI-generierte Texte zu redigieren. Das muss man nicht gut finden und ist auch keine Folge der Technologien allein, sondern der ökonomischen Rahmenbedingungen. Man muss sich generell von der Vorstellung verabschieden, dass Arbeitnehmer durch den vermehrten Einsatz von KI mehr Freizeit haben werden. Das wäre nur möglich, wenn die politischen und ökonomischen Grundlagen verändert werden.
HA:
Stehen wir nach der industriellen und der digitalen Revolution jetzt vor einer KI-Revolution, die unsere Gesellschaft und Wirtschaftsprozesse von Grund auf verändern wird?
Vielleicht. Das ist schwer vorherzusehen. Ich möchte einerseits nicht einen Hype befördern. Andererseits hat mich die Entwicklung von ChatGPT selbst ziemlich überrollt. Das macht mich nachdenklich, schließlich arbeite ich seit Langem zu dem Thema. Die KI wird einiges verändern.