Hands On Workshop „Chat GPT“ - KI Chatbots verstehen und produktiv nutzen

v.l.n.r. Prof. Jochen Dickel (FHM), Prof. Dr. Meike Probst-Klosterkamp (FHM), Eric Adelt (IP Adelt GmbH), Ralf Sommer (OCTA Steuerberater), Prof. Dr. Astrid Kruse (FHM) und Markus Hirschmeier (Hirschmeier Media GmbH & Co. KG), Foto: Timo Blaschke
17. Oktober 2023
FHM Bielefeld, Ravensberger Straße 10G, 33602 Bielefeld

Reloaded: Hands On Workshop „ChatGPT“

KI Chatbots verstehen und produktiv nutzen

(Bielefeld, 17. Oktober 2023) „Das Interesse und die Resonanz beim ersten Workshop in der Fachhochschule des Mittelstands (FHM) im Mai diesen Jahres zum Thema ChatGPT war schon riesengroß“, stellt Ralf Sommer, Vorstandsmitglied und Schatzmeister des Marketing Clubs OWL Bielefeld, zur Begrüßung fest. Grund genug für eine zweite Auflage der Veranstaltung – und auch diese war ruckzuck ausgebucht. Mit Prof'in. Dr. Astrid Kruse (Dekanin Fachbereich Medien, Medien-Kommunikationswissenschaften), Prof'in Dr. jur. Meike Probst-Klosterkamp (Rechtsanwältin, insbesondere Wirtschafts-, Medien- und internationales Recht) und Prof. Dipl. Des. Jochen Dickel (Studienleitung Kommunikationsdesign, Forschungsleitung Emergente Medientechnologien an der FHM) standen gleich drei Expert*innen bei dieser inspirierenden Veranstaltung zu Verfügung.

Die im Jahr 2000 in Bielefeld gegründete staatlich anerkannte, private Fachhochschule des Mittelstands (FHM) mit mittlerweile 11 Standorten in Deutschland und über 5.700 Studierenden hat sich schon sehr früh mit ChatGPT befasst und in die Lehre integriert „Am 30. November 2022 wurde die KI freigeschaltet und lediglich mit einem einzigen Satz über seinerzeit noch Twitter angekündigt. Das war die ganze Marketingkampagne“, berichtet Prof'in. Dr. Astrid Kruse.

 

ChatGPT hatte binnen fünf Tagen bereits eine Million Nutzer, im Juni 2023 waren es weltweit bereits 100 Millionen – eine bislang noch nie dagewesene Resonanz bei den Nutzern. Die aber auch gewisse Gefahren birgt. So hat beispielsweise IBM-Chef Arvind Krischna bereits angekündigt, weniger neues Personal einzustellen. „Für uns als Hochschule stellt sich natürlich die Frage: Wie schreibt man unter solchen Bedingungen Prüfungen und welche rechtlichen Implikationen birgt die KI.“

Denn die KI, die mit dem Menschen kommuniziert (Chat), generiert (G) neue Texte und greift dafür auf alles zurück, womit die KI trainiert (pretrainend = P) wurde. Die Deep-Learning-Software verwendet eine Technik namens Transformer (T). Eine der Problematiken liegt darin begründet, dass ChatGPT mit Milliarden von Einträgen trainiert wurde und als Ergebnis nicht das liefert, was richtig, sondern was am wahrscheinlichsten ist. Denn bei einer Frage an den Bot läuft im Hintergrund eine sekundenschnelle statistische Auswertung. Zudem wissen die User nicht, mit welchen Daten die KI trainiert wurde. Und wer vor einem halben Jahr ChatGPT 3 ausprobiert hat, wird vielleicht überrascht sein, dass die neuere Version ChatGPT 4 deutlich bessere Ergebnisse liefert, denn die Anzahl der Daten, mit denen die KI trainiert wurde, ist enorm gestiegen. 

Neben den Unsicherheiten, die ChatGPT mit sich bringt, verweist Prof'in. Astrid Kruse aber auch auf die Chancen, die die KI für das Wissensmanagement von Unternehmen darstellen kann, wenn der Zugang zu Chat GPT über eine Schnittstelle erfolgt und die KI ausschließlich auf eigene Texte, die z. B. als PDF hinterlegt wurden, zurückgreift.

 

Bilder – Deep Fake oder wahr?

Ist die Textgenerierung nur ein Bereich, so stellen uns KI-generierte Bilder, z. B. mit Midjourney, vor weitere Herausforderungen, wie Prof. Jochen Dickel anhand einiger Beispiele eindrücklich zeigte. Denn ein Deep Fake ist kaum noch als solcher zu erkennen. Die Gefahr von Desinformation und Verzerrung wächst. Deshalb ist momentan eine Kennzeichnungspflicht für KI-generierte Texte und/oder Bilder in der Diskussion. Und es stellen sich rechtliche Fragestellungen. Was ist überhaupt erlaubt und was nicht? Zu den rechtlichen Rahmenbedingungen trug Prof'in Dr. jur. Meike Probst-Klosterkamp Erhellendes bei. „Der Gesetzgeber muss erst noch einen Regelungsrahmen für den Einsatz von KI schaffen, aber schon jetzt können Gesetze, zum Beispiel zum Persönlichkeitsrecht greifen“, macht die Rechtsanwältin deutlich.

Zuständig für die gesetzliche Regelung des Einsatzes von KI ist die EU, weil KI nicht an Landesgrenzen aufhört. Und die Kommission ist mit ihrer Arbeit schon recht weit. Momentan wird an letzten Formulierungen des „Artificial Intelligence Act“ gearbeitet, den die Europäische Union idealerweise noch bis Jahresende 2023 beschließen will. Parallel arbeitet die EU an der „Artificial Intelligence Liability Directive“, die sich als Richtlinie primär mit Haftungsfragen befasst.

Beim Artificial Intelligence Act – oder auf deutsch auch KI-Verordnung genannt – gilt das Marktortprinzip. Das bedeutet, dass es für alle Unternehmen gilt, die KI-Technologien auf den europäischen Markt bringen will, also auch für den US-amerikanischen ChatGPT-Anbieter OpenAI. Die Verordnung soll wie die DSGVO mit einer zweijährigen Übergangsfrist in Kraft treten.

 

Risikoabstufungen

Die KI-Verordnung beinhaltet risikobasierte Ansätze in vier Abstufungen. In die Stufe 1 fallen verbotene KI-Systeme, die z. B. zur Manipulation oder beim Social Scoring, wie es bereits in China gemacht wird, zum Einsatz kommen. Stufe 2 bezieht sich auf hochriskante KI-Systeme, die zum Beispiel auf dem Gesundheitssektor oder beim autonomen Fahren verwendet werden. Stufe 3 bezeichnet KI mit geringem Risiko. Prof'in Dr. jur. Meike Probst-Klosterkamp vermutet, dass ChatGPT hier einzustufen ist, wobei vom Gesetzgeber wahrscheinlich noch mehr Transparenz gefordert werden könnte. In die Stufe 4 werden KI-Systeme mit minimalem Risiko einsortiert. Es wird mit Spannung erwartet, welche KI-Systeme in welche Stufe einsortiert werden, das wir momentan noch verhandelt. 

Fraglich ist auch, wie ein angemessener Schutz gegen den Einzug illegaler Inhalte, die gegen EU-Recht verstoßen, aussehen könnte. Das gilt auch für Daten aus urheberrechtlich geschützten Quellen, die für das Training von KI verwendet wurden.

Auch wenn die EU noch keine entsprechenden Gesetze zur Regelung des Umgangs mit KI-Systemen beschlossen hat, gelten schon jetzt Gesetze – nicht zuletzt das Grundgesetz. Außerdem können das Allgemeine Persönlichkeitsrecht, das Urheberrecht, die DSGVO, das Markenrecht oder Vorschriften zum Verbraucherschutz zum Tragen kommen.

 

 

Hands on – die KI im Test

Die meisten Teilnehmenden haben ChatGPT schon mal ausprobiert oder nutzen es schon gelegentlich. „Die Kunst ist es, mit der Maschine so zu sprechen, damit das bestmögliche Ergebnis generiert wird“, erklärt Prof. Dipl. Des. Jochen Dickel. Nur ausgefeiltes Prompting bringt brauchbare Ergebnisse. Dazu wird häufig das Chain Prompting angewendet. Der erste von der KI-generierte Text wird immer weiter verfeinert, gekürzt ausgeweitet, inhaltlich präzisiert oder im Sprachduktus angepasst. Häufig sind diverse Nachprompts nötig, um einen guten Text zu bekommen. Je genauer der Input – manchmal sind dafür schon mal mehrere DIN-A4-Seiten nötig –, desto besser der Output.

Der Studienleiter Kommunikationsdesign berichtet, dass auch die Erstellung von Nutzerprofilen und eine Bedürfnisanalyse der Zielgruppe mit ChatGPT möglich sei. Diese erfülle jedoch beim aktuellen Stand der Technik lediglich eine Assistenzfunktion. Für eine Sentiment-Analyse, zur Auswertung von Nutzerkommentaren, liefert die KI zumindest einen ersten guten Eindruck vom Material. Aber man sollte vorsichtig sein, mit welchen Daten ChatGPT gefüttert wird, weil die weitere Verwendung durch Open AI unklar sei. Deshalb sollte auch nach jedem Chat der Verlauf gelöscht werden.

Was ChatGPT schon gut kann, sind Sprachen, Stile, Ideen für Geschichten geben, Infos bereitstellen und strukturieren. Dabei sollte man berücksichtigen, dass die KI nicht auf das Internet zugreift, sondern lediglich mit den ausgewählten Trainingsdaten, die auf dem Stand von September 2021 sind, arbeitet. Auch Informationen zu Persönlichkeiten sollten äußerst kritisch auf ihre Richtigkeit geprüft werden. ChatGPT liefert keine Quellenangaben und auch bei komplexen mathematischen Berechnungen ist die KI überfordert. Sie kann nur eingeschränkt abstrahieren sowie Empathie bestenfalls simulieren.

Ausgerüstet mit nützlichem Know-how entließ Prof. Dipl. Des. Jochen Dickel die Teilnehmenden in die Praxis, die einfach mal selbst ausprobieren sollten, was ChatGPT zu leisten vermag. Die Ergebnisse wurden beim anschließenden Get-together ausgiebig diskutiert. Man darf gespannt sein, wohin die Reise bei der Nutzung und im Umgang mit KI-Systemen geht.

 

 

Text: Eike Birck

Fotos: Timo Blaschke

Bildergalerie
Mitglieder-Login

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden