Was Joseph Weizenbaum wohl zu ChatGPT gesagt hätte?
Die Leistungsfähigkeit von ChatGPT beeindruckt gerade die Welt – zu Recht. Noch nie hat ein textbasiertes Dialogsystem, denn genau das ist ein Chatbot, einen solchen Output produziert. Für den Laien sind die Texte schon jetzt nicht mehr von denen menschlicher Autoren zu unterscheiden. Automatisieren wir jetzt bereitwillig unsere Schriftkultur?
Der Informatiker Joseph Weizenbaum, Erfinder des ersten Chatbots ELIZA im Jahr 1966, hatte dazu eine klare Haltung: KI-Systeme sollten nur zur Informationsbeschaffung eingesetzt werden, die Entscheidungsgewalt über die so bereitgestellten Daten müsse aber immer in menschlicher Hand bleiben. Was machte den begnadeten MIT-Informatiker zu einem solchen Kritiker seiner eigenen Zunft und Erfindung? Ihn hatte der naiv-begeisterte Umgang mit ELIZA schockiert. Der Chatbot simulierte das Gespräch mit einem menschlichen Psychotherapeuten, woraufhin viele Probanden ihre innersten Gedanken und Gefühle preisgaben, ohne zu merken, dass lediglich ein Chatbot auf Stichworte reagierte.
KI-Chatbots simulieren lediglich Sprache
Nun befinden wir uns mit GPT-3 im Jahr 2023. Die dahinterstehende KI ist so viel leistungsfähiger als die von ELIZA, was sie zu entsprechend besseren Simulationen von sprachlichen Texten befähigt. Insbesondere sprachlicher Output, der uns Menschen emotional berührt, kann heute schon hinlänglich und in Zukunft täuschend echt simuliert werden. Es wird aber immer nur eine maschinelle Simulation von Sprache und Emotion sein, wenn auch eine glaubwürdige. Genau deswegen gelten die Einwände Weizenbaums auch heute noch: IT ist immer nur ein Hilfsmittel und Werkzeug, niemals ein Gegenüber. Das dürfen wir nicht vergessen, auch wenn uns GPT-3 – und erst recht seine Nachfolger – nahezu perfekte Sprachmodelle bieten werden: Da spricht niemand.
Sinnvolle Werkzeuge zur Informationsbeschaffung
Künstliche Intelligenzen sind sehr gute Werkzeuge, um große Datenmengen zu durchforsten. Big Data Mining ist ohne KI schon heute nicht mehr möglich, sei es bei der Suche nach Mustern in der Genomsequenzierung oder als Suchmaschine im World Wide Web. Sie spielen überall dort ihre Stärken aus, wo keine eindeutigen Antworten zu finden sind, sondern lediglich Wahrscheinlichkeiten. Das WWW ist daher Hauptanwendungsfeld geworden: Nach dem verkündeten Einstieg von Microsoft bei OpenAI hat Google kurz darauf mit Bard seinen ChatGPT-Konkurrenten vorgestellt. Im Rennen um die beste Suchmaschine schenken sich die Internetgiganten nichts. Künstliche Intelligenzen sind hierbei ein fester Bestandteil geworden. Wir werden lernen, selbstverständlich mit ihnen umzugehen, genauso wie wir stetig mehr automatisierte Prozesse in unseren Alltag integrieren.
Kritischen Umgang mit KI und Automatisierung lernen
Wichtig im täglichen Umgang mit KI und Automatisierung bleibt, dass wir sie als Werkzeuge begreifen, die unserer Bedienung oder zumindest regelmäßigen Kontrolle bedürfen. Die Verantwortung liegt beim Anwender, nicht beim Werkzeug. Deshalb darf der Nutzer auch nicht die Entscheidungsgewalt aus der Hand geben. Ein informierter und bewusster Umgang mit KI und Automatisierung muss es schaffen, einen sinnvollen Nutzen aus den Werkzeugen zu ziehen und deren inhärente Gefahren einzuhegen. Das ist ein gesellschaftlicher Lernprozess, den wir aber in unserer Menschheitsgeschichte schon mehrfach durchlaufen haben, und auch diesmal bewältigen sollten.
Ich persönlich habe mir angewöhnt, meine eigenen automatischen Alltagshelfer nicht aus den Augen zu verlieren, gerade dann, wenn sie reibungslos funktionieren. Das ist manchmal mühsam, aber notwendig, um sie regelmäßig an veränderte Bedürfnisse anzupassen. Dabei habe ich die Erfahrung gemacht, dass regelmäßiges Infragestellen der gewohnten digitalen Anwendungen mitunter zu neuen Ideen führt, wie man sie selbst oder die Art und Weise, wie sie genutzt werden, noch ein bisschen besser machen kann. Die Mühe lohnt sich also.