Wenn echte Regeln fehlen

Mit einem Kommentar von

Dr. Bob Neubert

Wirtschaftsprüfer / Steuerberater

Künstliche Intelligenz entwickelt sich rasend schnell – und dringt mittlerweile in fast alle Lebensbereiche vor. Experten warnen zunehmend vor den Risiken dieser Technologie.

Die Writers Guild of America zählt zu den mächtigsten Gewerkschaften in Hollywood. Wenn ihre Mitglieder streiken, kann keine Fernsehserie fortgeschrieben werden, wird kein Skript mehr bearbeitet, stehen ganze Filmstudios still. Aktuell hat die WGA, wie die Gewerkschaft abgekürzt heißt, wieder einen Ausstand angekündigt. Doch dieses Mal geht es nicht nur um schlechte Arbeitsbedingungen und die oft miese Bezahlung. Die Autoren streiken auch für ihre berufliche Existenz. Sie fürchten, dass künftig eine künstliche Intelligenz (KI) ihre Drehbücher schreiben könnte – und fordern deshalb Regeln.

Der Kampf der Autoren gegen die KI ist nur der Vorbote einer grundlegenden Veränderung der Gesellschaft. Schon jetzt sind manche Anwendungen wie der Chatbot ChatGPT intelligent genug, um bei der Arbeit zu unterstützen, Diagnosen zu stellen, die Steuererklärung auszufüllen und Rechtsfragen zu beantworten. Doch mit den Vorteilen gehen große Gefahren einher: für den Job oder für die Gesundheit. Und glaubt man manchen Wissenschaftlern, dann sogar für die menschliche Existenz.

Wie erfolgreich Arbeit bereits durch Algorithmen ersetzt werden kann, zeigt eine neue Studie der US-Universität Stanford. Ein amerikanischer Konzern hatte seinen mehr als 5000 Hotline-Mitarbeitern eine künstliche Intelligenz zur Seite gestellt, die Vorschläge zur Gesprächsführung machte. Das Ergebnis: Die Kunden waren zufriedener, die Produktivität der Beschäftigten stieg. Vor allem aber profitierten die weniger erfahrenen Servicekräfte von der KI-Hilfe: Ihre Arbeitsleistung kam dank GPT der von erfahreneren Kollegen gleich. „Wir finden Hinweise darauf, dass die KI-Unterstützung gering qualifizierte Mitarbeiter dazu bringt, wie hoch qualifizierte Mitarbeiter zu kommunizieren“, stellen die Forscher fest – aus Sicht der Firma sicherlich positiv, aus Sicht der Arbeitnehmer jedoch beunruhigend. Künftig ist Erfahrung aufgrund des KI-Einsatzes weniger wert – mit entsprechenden Auswirkungen auf Lohnstrukturen, Beförderungen und Lebensarbeitszeit.

Die US-Investmentbank Goldman Sachs hat in einer Arbeitsmarktanalyse für die USA und Europa prognostiziert, dass innerhalb der kommenden zehn Jahre etwa 20 Prozent der aktuellen Aufgaben in Unternehmen von Algorithmen übernommen werden könnten. Dies würde dazu führen, dass rund 63 Prozent aller Berufe betroffen wären und bis zu 300 Millionen Stellen teilweise oder vollständig wegfallen könnten. Trotzdem wird die globale Wirtschaftsleistung dank KI voraussichtlich um sieben Prozent steigen.

Wachstum trotz Arbeitslosigkeit? Nicht nur in der Jobwelt ist künstliche Intelligenz Fluch und Segen zugleich. Auch in der Medizin gibt es manche, die hoffen – und andere, die warnen. Isaac Kohane, Informatiker und Arzt an der Harvard University, hat gerade ein Buch zum Einsatz von KI im Gesundheitswesen veröffentlicht. Darin stellt er die Frage: Wie gut ist künstliche Intelligenz in der Medizin? „Ich muss erstaunt feststellen: besser als viele Ärzte, die ich beobachtet habe“, schreibt Kohane. Die aktuellste Version des Algorithmus von ChatGPT könne seltene Krankheiten diagnostizieren oder lange, komplexe Berichte zusammenfassen.

Erste Entwickler machen sich sogar daran, ihre Chatbots in der Psychotherapie einzusetzen. Der Bedarf ist groß, vielerorts fehlt es an Therapeuten. Zu Jahresbeginn kam es jedoch zu einem ersten Skandal: Die US-Plattform Koko hatte eine KI an zum Teil depressiven Personen getestet. Bei dem Dienst können Nutzer mit psychischen Problemen normalerweise um Rat von echten Menschen bitten. Rund 4000 von ihnen bekamen im Experiment jedoch Antworten von ChatGPT-3. Das Besondere: Laut Koko-Mitgründer Rob Morris erhielten die rund 30.000 verschickten KI-Nachrichten eine deutlich bessere Resonanz als die echter Menschen. Doch sobald die Testpersonen verstanden, dass ihnen ein Bot antwortete, habe all das nicht mehr funktioniert, erklärte Morris. „Simulierte Empathie fühlt sich komisch und leer an“, lautete seine Erklärung.

Im Netz war der Aufschrei riesig. Das Experiment zeige einen „abscheulichen Mangel an Menschlichkeit und Moral“, schrieb die US-Historikerin Sarah Parcak im Kurznachrichtendienst Twitter. Und die Technologieinvestorin Christina Farr kommentierte: „Wir sollten versuchen, KI im Gesundheitswesen für Anwendungen einzusetzen, bei denen menschliches Einfühlungsvermögen weniger wichtig ist.“

Doch manche Experten warnen längst nicht mehr nur vor tiefgreifenden Veränderungen für einzelne Lebensbereiche. Ihnen geht es um nichts weniger als die menschliche Existenz. Befeuert werden solche Bedenken jetzt von dramatischen Warnungen einstiger KI-Pioniere. Zu ihnen gehört Geoffrey Hinton, der ein halbes Jahrhundert lang die Technologie hinter smarten Chatbots erforscht und entwickelt hat. Hinton, den seine Gefolgsleute als den „Gottvater der KI“ bezeichnen, hat in dieser Woche seinen Job beim Suchmaschinenkonzern Google hingeschmissen. Der Grund, so sagt er selbst: um frei über die Risiken künstlicher Intelligenz sprechen zu können.

Der 75-Jährige sorgt sich vor allem darum, dass die KI-Anwendungen schon bald schlauer sein könnten als Menschen. „Wenn sie viel intelligenter werden als wir, dann werden sie auch sehr gut darin sein, uns zu manipulieren“, warnte Hinton am Mittwoch auf einer Konferenz des renommierten Massachusetts Institute of Technology. Und Google selbst muss inzwischen feststellen, dass das Unternehmen die Geister, die es rief, wohl nicht mehr gebändigt bekommt. Luke Sernau, leitender KI-Entwickler bei dem Technologiekonzern, warnte in einem diese Woche öffentlich gewordenen internen Schreiben, dass die Algorithmen längst offen als sogenannte Open Source – also für jedermann zugänglich – verfügbar sind. Und dass er davon ausgehe, dass Google in der Entwicklung abgehängt werde.

Zuvor hatte schon ein offener Brief für Aufsehen gesorgt, in dem rund 1000 Experten eine sechsmonatige Entwicklungspause von KI-Anwendungen forderten. Zu den prominenten Unterzeichnern gehören Tesla-Chef Elon Musk und Apple-Mitgründer Steve Wozniak. „Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind“, heißt es in dem Brief. „Sollten wir nichtmenschliche Geschöpfe entwickeln, die uns schließlich zahlenmäßig übertreffen, überlisten, überflüssig machen und ersetzen könnten?“

Dabei gäbe es Lösungen, die Vorteile der Technologie zu nutzen – und gleichzeitig die Risiken einzudämmen. Pegah Maham, KI-Expertin der Stiftung Neue Verantwortung, beklagt etwa, dass Sicherheitsregeln bei der Entwicklung bislang auf der Strecke blieben: „Standards sind nötig wie bei jedem komplexen Produkt, von dem Risiken ausgehen und dessen Auswirkungen nicht immer gut voraussagbar sind.“ Sie würden nicht nur vor Kontrollverlustszenarien schützen, sondern auch vor anderen möglichen Gefahren durch KI-Systeme. Konkret bemängelt Maham, dass Anwendungen derzeit schnell veröffentlicht würden – und nicht ausreichend im Entwicklungsstadium getestet werde. Dort könnte man immerhin vorher prüfen, sagt sie: „Lügt dieses Modell? Kann es Menschen manipulieren? Kann es Kopien von sich selbst anfertigen?“

Gegen die Bedenken mancher Experten erscheinen die Sorgen der Autoren in Hollywood noch klein. Aus ihrer Sicht sollten Algorithmen künftig etwa so reguliert werden, dass sie „literarisches Material nicht schreiben oder umschreiben können“. Der Studioverband AMTPT lehnte den Vorstoß bislang ab – jetzt droht ein langer Streik. Und der dürfte zeigen, wie groß die Macht der Drehbuchautoren gegenüber der künstlichen Konkurrenz noch ist.

BANSBACH kommentiert

Falls Sie sich bereits beispielsweise mit ChatGPT von OpenAI beschäftigt haben, wird Ihnen bei der Verwendung des deutschen Sprachmodells bestimmt etwas aufgefallen sein: Texte und Ideen, die der Chatbot ausgibt, sind nicht schlecht. Allerdings wirken sie fad, uninspiriert und absolut mittelmäßig. Es fehlt ihnen tatsächliche Ideenkraft, Stil und – das verwundert nicht – Menschlichkeit.
Bricht man es herunter, wurde ChatGPT mit ungezählten Texten aus dem Internet (Webseiten, Bücher, Artikel, usw.) trainiert. Der Verstand des Bots – wenn man so will – ist eine Verschmelzung all der Inhalte der Texte und Eigenarten der Autoren und gibt entsprechende Antworten: nicht schlecht, nicht gut. Absolut verwendbar, aber mit der Notwendigkeit für einen menschlichen Nutzer, der kuratiert und optimiert. Und mit geschickt gewählten “Prompts” lässt sich die Leistung der KI noch steigern.

Als Steuerberater und Wirtschaftsprüfer haben wir uns natürlich auch mit der Frage beschäftigt, ob wir unseren Berufsstand in der Gefahr sehen. Werden steuerberatende Dienstleistungen in Zukunft nur noch von künstlichen Intelligenzen durchgeführt? Das beantworten wir mit einem Nein, aber…

Warum das so ist, erklärt ChatGPT selbst. Wir haben den Chatbot folgendes gefragt: “Kannst du steuerliche Fragen beantworten?”

Die Antwort: “Ja, ich kann Ihnen bei steuerlichen Fragen helfen. Bitte beachten Sie jedoch, dass ich kein Steuerberater bin und meine Antworten keine rechtliche Beratung darstellen. Ich kann Ihnen jedoch allgemeine Informationen und Ratschläge zu steuerlichen Themen geben. Es ist immer ratsam, sich bei konkreten steuerlichen Angelegenheiten an einen qualifizierten Steuerberater oder das örtliche Finanzamt zu wenden.”

Damit löst sich bereits das Aber: KIs können den Steuerberater nicht ablösen, aber Sprachmodelle, die über ausreichend Datensätze verfügen, können Nutzern dabei helfen, bequem oberflächliche Fragen zu beantworten. Und ChatGPT ist dazu noch ehrlich: Es gibt zu, keine rechtliche Beratung ersetzen zu können und verweist auf den Steuerberater (oder das Finanzamt), um konkrete Hilfe zu erhalten.

Das Nein lässt sich mit zwei Themen erklären:

Vertrauen
Wie im Artikel bereits beschrieben, ist das Vertrauen in künstliche Intelligenzen (noch) begrenzt. MaristPoll hat in den USA eine Umfrage zum Thema “Artificial Intelligence & ChatGPT” durchgeführt und ist dabei zu folgendem Ergebnis gekommen: Nur 30% aller Befragten haben viel Vertrauen in die Antworten der KIs. Steuerberater sind außerdem häufig mehr als nur beratend tätig. Für viele Mandanten sind sie (Ansprech-)Partner in allen Lebenslagen. Dafür braucht es Menschlichkeit.

Aktualität
Das Wissen der aktuellsten Version von ChatGPT (4) endet im September 2021. Seitdem ist viel passiert. Bleiben wir im Bereich der Steuern, müssen wir allein an die Jahressteuergesetze denken, um zu begreifen, welches Potential für veraltete Informationen und nicht in genutzte Steueroptimierungen dort bereitsteht.

Falls Sie sprachbasierte KIs für Steuertipps nutzen, sollten Sie die gelieferten Antworten kritisch betrachten und nicht als Wahrheiten hinnehmen. Wenden Sie sich immer an Ihren Steuerberater – nur so sind Sie abgesichert und erhalten aktuelle und korrekte Antworten auf Ihre Fragen.

Wir von Bansbach sind stets gerne Ihr Ansprechpartner. Sie haben ein konkretes Thema, das Sie besprechen möchten? Melden Sie sich bei uns.

    Ich stimme zu, dass meine Angaben aus dem Formular zur Beantwortung meiner Nachricht erhoben und verarbeitet werden. Die Daten werden nach abgeschlossener Bearbeitung gelöscht. Hinweis: Sie können Ihre Einwilligung jederzeit für die Zukunft per E-Mail an widerrufen. Detaillierte Informationen zum Umgang mit Nutzerdaten finden Sie in unserer Datenschutzerklärung.
    Bitte beweise, dass du kein Spambot bist und wähle das Symbol Auto.
    Vielen Dank für Ihre Nachricht.Ihre Anfrage ist soeben bei uns eingegangen.
    Wir werden uns in Kürze bei Ihnen melden.
    Zurück zur Übersicht