Vortrag über ChatGPT und Co.: Professor spricht über "Möglichkeiten, Grenzen und Konsequenzen"

Amberg
22.06.2023 - 15:44 Uhr

ChatGPT ist längst salonfähig. Ein OTH-Professor erklärt, wo das Sprachmodell zum Einsatz kommt und warum man bei den Antworten der Künstlichen Intelligenz immer skeptisch sein sollte.

Es gibt Erfindungen, die das Leben und die Arbeitswelt umfassend verändern. Solche gab es in der Geschichte immer wieder. Der Buchdruck, die Dampfmaschine oder das Internet werden oft als Beispiele herangezogen. Die Künstliche Intelligenz (KI) könnte den Alltag auch drastisch verändern, sei es nun im privaten Bereich der Arbeitswelt oder im Bildungssystem. Das ist vielen spätestens klar, seitdem das Sprachmodell ChatGPT in aller Munde ist.

Deshalb war es auch nicht verwunderlich, dass zum EMI-Forum ins Siemens-Innovatorium an der OTH Amberg zahlreiche Zuhörer kamen. Schließlich referierte mit Professor Ulrich Schäfer einer, der sich schon seit Jahrzehnten mit KI beschäftigt. Von 2000 bis 2014 war er Projektleiter am Deutschen Forschungszentrum für Künstliche Intelligenz in Saarbrücken. Seit dem Wintersemester 2014/15 ist er Professor für Medieninformatik und Mobile Computing an der OTH Amberg-Weiden.

Die meisten nutzen KI gelegentlich

Am Mittwochabend sprach er zum Thema "ChatGPT und Co.: Funktionsweise, Möglichkeiten, Grenzen und Konsequenzen generativer Sprachmodelle für Bildung und Arbeitswelt". Die Interessenten kamen mit ganz unterschiedlichen Voraussetzungen und wohl auch Erwartungen zum Vortrag. Eine Blitzumfrage per Handzeichen von Professor Schäfer ergab: Mehr als ein Dutzend der Zuhörer hat noch nie ChatGPT benutzt, rund ein Dutzend tut das täglich, die große Mehrheit arbeitet gelegentlich mit der KI-Software.

Ein Großteil des Vortrages war recht technisch orientiert, beschäftigte sich damit, wie solche Sprachmodelle wie ChatGPT überhaupt aufgebaut sind und funktionieren. Dafür dürften sich vor allem die Studenten der OTH interessiert haben, die zahlenmäßig gut vertreten waren. Schäfer hatte aber auch plastische Beispiele dabei.

So hat er das Sprachmodell etwa gefragt: "Ist der Sohn meines Doktorvaters mein Bruder?" Um das zu beantworten, brauche es "schon einiges an Wissen an die Welt", erklärte der Professor. Die (etwas längere) Antwort der KI lautete wie folgt: "Nein, der Sohn Ihres Doktorvaters ist nicht automatisch Ihr Bruder. Ein Doktorvater ist die Bezeichnung für einen Professor oder einen Wissenschaftler, der Ihre Doktorarbeit betreut hat. Der Begriff ,Bruder' bezieht sich normalerweise auf eine Person, die mit Ihnen durch gemeinsame Eltern verwandt ist. Es gibt also keine direkte Verbindung zwischen Ihrem Doktorvater und Ihnen, es sei denn, es besteht eine separate familiäre Beziehung zwischen Ihnen, die unabhängig von Ihrer akademischen Arbeit besteht."

Nonsens-Antworten

Vom Professor gibt es dafür einen Daumen nach oben. Als "fast perfekt" bezeichnet er die Antwort: "Kein Geschwafel und kompakt." Allerdings mahnte Schäfer auch, kritisch gegenüber den Antworten zu sein: "Auch wenn alles gut aussieht, es kann Nonsens dahinterstecken." Die Auskünfte sind meist rhetorisch einwandfrei und voller Selbstbewusstsein formuliert, können aber inhaltlich völlig daneben sein. So hat ChatGPT in einem Interview mit einer Oberpfalz-Medien-Redakteurin auf die Frage, wo denn Amberg liegt, geantwortet: "Südlich von Regensburg und nördlich von Nürnberg." Naja, geografisch nicht ganz einwandfrei. Der Stadt hat die KI auch ein Biermuseum und die Wallfahrtskirche St. Johannes angedichtet. Gerade die GPT-3-Version, mit der viele ihre ersten Gehversuche mit einem Sprachmodell machten, war ziemlich fehlerhaft. Oder wie Schäfer es ausrückt: "Fakten, Lügen und Fiktion waren vermischt." Mit der neuen GPT-4-Version funktioniert vieles schon besser. Vorsicht ist dennoch geboten.

Bei vielen ist ChatGPT aber voll angekommen. Sie nutzen es, um Texte zusammenfassen zu lassen, Argumente zu finden, sich Bewerbungen schreiben oder sich Reisetipps geben zu lassen. Wohin das mit der Künstlichen Intelligenz alles führt? Schwer zu sagen. Professor Schäfer bemühte jedenfalls ein Zitat von Sam Altman, Mitbegründer und Chef von "OpenAi", der Firma, die hinter ChatGPT steckt. Frei und etwas verkürzt übersetzt, sagt Altman: "Wenn man die Leute vor zehn Jahren gefragt hat, welchen Einfluss die Künstliche Intelligenz hat, hörte man als erstes, dass die ,einfachen' Jobs, wie Lastwagenfahrer, verschwinden. Dann folgen Berufe mit geringen Qualifikationen. Anschließend die hochqualifizierten Jobs, wie etwa Programmieren. Und am Schluss oder vielleicht nie, werden die kreativen Berufe ersetzt. Und jetzt geht es genau den umgekehrten Weg." Inwieweit die Künstliche Intelligenz das Leben und die Arbeitswelt verändert, wird sich wohl erst in den kommenden Jahren richtig zeigen.

Hintergrund:

Tipps vom Experten für ChatGPT-Anfragen

  • Persona: Spezifiziere, in welcher Rolle und aus welcher Perspektive heraus ChatGPT antworten soll, zum Beispiel: "Du bist ein Trainer."
  • Aufgabe: Formuliere eine klare Aufgabenstellung, zum Beispiel: "Schreibe einen Einführungstext über künstliche Intelligenz."
  • Kriterien: Nenne gegebenenfalls weitere Kriterien, zum Beispiel Aspekte und Bezüge, die berücksichtigt werden sollten, etwa: "Gehe auf den Unterschied zwischen menschlicher und künstlicher Intelligenz ein."
  • Ziel: Mache klar, welches übergreifende Ziel erreicht werden soll, zum Beispiel: "Es soll ein allererstes Grundverständnis geschaffen werden."
  • Formal: Spezifiziere das Format, den Tonfall und Duktus des Endprodukts, zum Beispiel: "Der Text soll unterhaltsam sein und zwischen 20 und 30 Sätze umfassen."
  • Refinement: Melde Feedback zur Antwort zurück, übe Kritik und benenne, in welcher Hinsicht die Antwort verändert werden soll, zum Beispiel: "Formuliere knapper."
 
 

Kommentare

Um Kommentare verfassen zu können, müssen Sie sich anmelden.

Bitte beachten Sie unsere Nutzungsregeln.