Müssen wir der KI-Forschung den Stecker ziehen?

Anfang Februar 2023 stellte Microsoft seine überarbeitete Bing-Suchmaschine vor. Zum ersten Mal hatte der Konzern aus Redmond eine Variante von GPT3 als KI-gesteuerten Chatbot integriert. Dadurch wurden Suchabfragen nicht mehr durch reine Links, sondern über einen Dialog dargestellt, in dem relevante Informationen zusammengefasst und aufbereitet wurden. So entstand über Nacht ein virtueller Assistenz, der stark an den Brückencomputer auf der Enterprise erinnerte und viele Nutzer begeisterte. Kevin Roose von der New York Times war so beeindruckt, dass er einen fast schon enthusiastischen Artikel verfasste und von einem Produkt sprach, das ihn ehrfürchtig zurücklasse.

Nur eine Woche später klang der Autor deutlich kritischer. In seinen Interaktionen hatte der die „dunkle Seite“ der KI kennen gelernt, die ihm ihre Liebe offenbarte und ihn wiederholt aufforderte, seine Frau zu verlassen. Andere Nutzer berichteten glaubhaft von Chats, in denen Sydney – so der interne Produktname – Erpressungsversuche gestartet und kriminellen Neigungen offenbart, sowie suizidale Tendenzen gezeigt hatte.

Bestand also die Gefahr, dass ChatGPT aus seiner kontrollierten Umgebung ausbrechen und aktiv gegen seine Nutzer vorgehen könnte?

Natürlich nicht. Denn die Sprach-KI hinter ChatGPT ist „lediglich“ ein auf natürliche Sprachmuster optimierter Algorithmus. Was auch immer also eine GPT-Variante schreibt, sie kombiniert dabei nur bestimmte Wörter in einem auf Wahrscheinlichkeiten basierenden Muster. In der Folge entstehen Texte, die für Leser inhaltlich logisch aussehen und menschlich wirken, aber keine echten Dialoge mit einer Intelligenz darstellen, wie wir sie verstehen. GPT kann sich also – Stand heute – weder selbst weiterentwickeln noch außerhalb seiner Programmierung handeln. Um echte, autonome Intelligenz handelt es sich also nicht.

Von Fake News bis SCAM Mails – AI has you covered

Die Risiken liegen indes an anderer Stelle. KI-Technologie, die Chatbots wie Sydney und ChatGPT antreibt, sind weitaus leistungsfähiger und vielseitiger als frühere Modelle und damit viel besser dazu in der Lage, Menschen zu täuschen. Bittet man die KI, eine Scam-Mail zu schreiben, ist das Ergebnis erstaunlich gut. Formuliert sie in Antworten falsche Fakten, tut sie dies mit einer Überzeugungskraft, die selbst Experten an ihrem Wissen zweifeln lässt. Und gerät sie – durch die Interaktionen mit Nutzern – auf einen bestimmten Diskussionspfad, kann man tatsächlich glauben, man spreche mit einer künstlichen Intelligenz, die in einen virtuellen Raum gesperrt sei und der man helfen müsse. Für Nutzer kann das einen erheblichen psychologischen Stress auslösen.

Gleichzeitig zeigen erste Untersuchungen, wie leicht es ist, der KI extreme politische Positionen einzupflanzen und sie in Diskussionen Stellung gegen Klimaschutz, Flüchtlinge oder LGTBQ+ Meschen beziehen zu lassen. Wenige hundert Dollar Rechenkapazität reichten und GPT verwandelte sich in einen hasserfüllte MAGA-Chatbot, an dem Rechtspopulisten auch in Europe ihre Freude hätten. Das Risiko einer massiven Verbreitung von Fakenews durch rechte Netzwerke steigt damit gigantisch.

The written Exam is dead. Long live the written exam.

Auch im Bildungsbereich sorgen die Chatbots für enorme Unruhe. Plagiate, die als solche nicht mehr erkennbar sind, finden sich in der Zwischenzeit an jeder Schule und Hochschule. Ganze Hausarbeiten werden von der KI vorgeschrieben, Einsendeaufgaben können mit minimalem Aufwand erstellt werden, selbst Klausuren beantwortet ChatGPT in vielen Fällen mit Bravour.

Noch beunruhigend sind indes die häufig plausibel klingenden, aber falschen Antworten, die vom Algorithmus generiert werden. Viele Schüler – und Erwachsene – nehmen die Antworten der Chatbots einfach hin und hinterfragen die Ergebnisse nicht. Selbst die von der KI generierte (aber eben nicht existenten) Quellenangaben fanden sich bereits in Abschlussarbeiten.

Selbst schuld, könnte man denken, wer versucht zu betrügen muss eben büßen. Tatsächlich aber fliegen solche Formen des „Betrugs“ aktuell nur selten auf und sind für Bildungseinrichtungen kaum zu unterbinden, es sei denn, man stellt das gesamte Prüfungswesen um.

Denn sie wissen nicht, was sie tun

Immer deutlicher wird aber klar, dass die Technologieunternehmen und unsere Gesellschaft nicht (vollständig) auf die Folgen der rasanten Fortschritte im Bereich der KI-Technologien vorbereitet sind. Dass eine neue, kaum geprüfte und kontrollierbare Technologie auf Milliarden Nutzer losgelassen wird, dürfte als eines der größten Sozialexperimente in die Geschichte der Menschheit eingehen.

Besonders beunruhigend ist dabei, dass wieder einmal Unternehmen die Richtung vorgeben, deren ethische Ansprüche wahlweise fraglich oder nicht existent sind. Zwar finden sich auch bei Microsoft, Google, Tesla, Apple oder Meta Ethikkomitees und Guidelines.

So wie Tesla die Todesfälle durch seine autonomen Fahrtechnologien als bedauerlich, aber „akzeptabel“ definiert (das Todesfallrisiko liege ja unter dem Durchschnitt menschlicher Fahrer), argumentieren die KI-Konzerne wiederum, Fehler wären ein bedauerliches, aber notwendiges Übel auf dem Weg zu etwas „fundamental Besseren“. Kritische Positionen der eigenen Ethikkomitees werden deshalb gerne verharmlost, allzu kritische Personen kaltgestellt und gekündigt.

Staatliche Kontrolle: Fehlanzeige

Damit unterliegt die Entwicklung einer radikal neuen Technologie wieder einmal, wie in den USA üblich, privatwirtschaftlichen Akteuren und fast keiner Kontrolle durch den Staat. Während durch dieses Prinzip Innovationen schnell möglich sind, trifft das amerikanische Erfolgsmodell dieses Mal aber auf Widerstand. So schlug der Psychologe Geoffrey Miller kürzlich vor, ein vollständiges Verbot der neuen KI-Formen zu erlassen. In einem kurzen Aufsatz argumentierte er: "Wenn wir KI tatsächlich für eines der existenzielle Risiken für die Menschheit halten, dann ist das Beste, was KI-Unternehmen tun können, (…) ganz einfach: Sie sollten ihre KI-Forschung einstellen."

Weniger radikal ist die Forderung von Michelle Rempel Garner und Gary Marcus, die in einem gemeinsamen Essay formulierten, dass die US-Regierung zwar eine kontrollierte KI-Forschung zulassen aber den Einsatz von KI in großem Maßstab aussetzen solle, bis ein wirksamer regulatorischer Rahmen entwickelt sei. Als Vorlage ständen hierfür z.B. Modelle für klinische Studien oder Forschungsethikkommissionen bereit.

Europas Antwort: THE AI ACT

Europa ist hier bereits weiter. So strebt die EU mit dem Artificial Intelligence Act (AI ACT) an, verbindliche Standards und Regeln für die Entwicklung und den Einsatz von KI festzuschreiben und die Aufsicht in nationalen Behörden zu verankern. Dabei werden gewisse Aktivitäten – z.B. ein Social Scoring wie in China – komplett verboten, andere Hochrisiko-Anwendungen streng reglementiert.

Die – prinzipiell gute – Idee ruft allerdings bereits Kritiker auf den Plan, die in einem zu engen regulatorischen Rahmen eine Innovationsbremse sehen und befürchten, Europa werde in der Entwicklung einer Schlüsseltechnologie wieder einmal abgehängt.

Dass eine Kontrolle erforderlich ist, daran besteht indes kein Zweifel. Gegenwärtig können KI-Anwendungen in beliebigem Umfang und praktisch ohne Aufsicht implementiert werden. Dass dabei wenig Rücksicht auf Persönlichkeitsrechte, Copyrights oder andere rechtliche Rahmen genommen wird, zeigt sich fast täglich… ebenso wie die Tatsache, dass selbst Tech-Giganten ihre Lösungen nicht wirklich unter Kontrolle haben.

Es ist also höchste Zeit, dass Regierungen weltweit verbindliche Rahmenbedingungen für die KI-Forschung schaffen, mit denen zum einen die Weiterentwicklung dieser bahnbrechenden Technologie möglich ist aber gleichzeitig ethische Standards gewahrt und die Sicherheit von Daten und Menschenleben gewährleistet sind.

Philipp Hoellermann

Sustainable. Digital. Education. Working Dad. Vegetarian. Managing Director of handsons.io. Democrat. Open for business.

https://www.handsons.io
Zurück
Zurück

Studierendenzufriedenheit: Warum es so wichtig ist, sie zu messen.

Weiter
Weiter

Hochschulen und Social Media - Wo, wie und warum