
Der Computer, mit dem man sprechen kann, ist seit jeher Folklore in der Science-Fiction-Literatur, sei es als HAL oder Deep Thought. Während Kritiker davor warnen, den Computer zu sehr zu vermenschlichen, sollte man sich vor Augen halten, dass gerade dieses Feature das Benutzererlebnis verbessert und die Schwelle für unbedarfte Benutzer deutlich senkt, mehr noch, als es die Einführung der grafischen Benutzerobefläche (GUI) je vermocht hatte.
Suchmaschine
Der Dialog und die automatische Zusammenfassung haben längst die traditionelle Suchmaschine überholt. Selbst mit ungeschickt formulierten Prompts kann ich bereits fundierte Erklärungen bekommen. Und viel besser noch: Zum Googeln eines Begriffs musste ich ja immer den Begriff selbst kennen. Jetzt kann ich auch umgekehrt suchen – im Stil von:
„Da gibt es diese Dinger, die man … Wie heißen die gleich?“
Inzwischen kann ich ja auch ein Bild einfügen, bekomme eine fundierte Beschreibung und einen Fachbegriff; da mir mit dem Alter das Merken von Namen immer schwerer fällt, ist das eine echte Gedankenstütze!
Verstehen lernen statt auswendig pauken
Ein großes Sprachmodell kann dir den Artikel nicht abnehmen – aber es kann ihn für dich aufschließen. Du liest z. B. einen mathematischen Wikipedia-Artikel. Die Formeln stehen da, die Begriffe auch – aber was fehlt, ist der Zugang. Manche LLMS bringen erstaunliche Fähigkeiten, den akademischen Staub abzuklopfen und etwas auf anschauliche Weise zu erklären. Die “reinen” Mathematiker verdrehen dann vielleicht die Augen, aber für uns Anwender ist das oft der entscheidende Schritt zum Verständnis und zur Anwendung.
Letztens wollte ich mein Wissen über Differentialgleichungen auffrischen. Es gibt unzählige Artikel und Videos zum Räuber-Beute-Modell, aber ich wollte speziell wissen, wie man das numerisch löst. Mit meinen Eingaben konnte ich gezielt Verständnisfragen klären, ein Programmbeispiel in meiner bevorzugten Programmiersprache erstellen und plotten lassen. Damit kann ich es soweit durchdringen, dass ich es trotz meines mathematischen Vorwissens aus der Uni Bonn auch anderen erklären kann.
Endlich keine Ausreden mehr
Nichts langweilt mich als Programmierer mehr, als Doku zu schreiben. Aber: Das LLM, das mir schon beim Coden geholfen hat, kennt den Code – inklusive Tests, Randfälle und Architektur. Mit dem Code habe ich mich schon beschäftigt; jetzt noch schnell ein Readme für die Veröffentlichung auf Github. Woran muss man alles denken? Ach ja:
Schreibe mir bitte ein professionelles Readme für die Veröffentlichung auf Github auf Englisch.
Und schon ist mal an alles gedacht. Allerdings sollte man das Resultat tatsächlich auch noch mal lesen, manchmal schlägt die Halluzination gnadenlos zu und verwurschtelt Gedanken in den Text, die man schon längst aus dem Kontextfenster rausgefallen wähnte.
So klappt’s mit dem Prompt garantiert nicht
- Befasse Dich nicht mit der Funktionsweise[1] von LLMs. Behandle es wie eine Suchmaschine, ein allwissendes Orakel. Ignoriere Wahrscheinlichkeitsverteilung über Token, das ist nur für Leute, die mit LLMs Geld verdienen wollen.
- Verlasse Dich auf Dein Bauchgefühl. Wer systematisch nachprüft, riskiert nur, enttäuscht zu werden.
- Gib keine klaren Rollen vor! Bleib vage, das Modell wird es schon richten.
- Weise das Modell auf Fehler hin und beschimpfe es – es wird sich brav entschuldigen und weiter irgendwie Output liefern.
- Bedenke immer: Du willst kein Werkzeug, das Dich bei strukturierter Arbeit mit Sprache unterstützt, sondern ein halluzinierendes “G’spürschmi”, das Deine Emotionen ernst nimmt und Dich in Deinen Problemen bestärkt.
Auch die Zeiten von Dudenkorrektor sind vorbei. Heute flüstert mir das LLM stilistische Vorschläge, korrigiert Fehler im Vorbeigehen – und macht meine Texte besser. Statt sich selbst beim Schreiben ständig zu korrigieren, kann ich die Gedanken fließen lassen und darauf vertrauen, dass stilistische Patzer, Rechtschreib- und Grammatikfehler ausgebessert werden – auf Wunsch unter Konservierung meines eigenen Stils. Merke: Wer mehr eingibt, bekommt weniger AI Slop und generische Aussagen. Wir wollen auch in AI-Zeiten lesenswerte Artikel.
Lesen muss man schon noch selber
Bei all den Vorteilen sollte man bedenken, dass man immer noch ein eigenes Werk verfasst und für den Inhalt verantwortlich ist. Es passiert hin und wieder, dass man einen Absatz maschinell hat korrigieren lassen, dabei wurde aber Satz so umgestellt, dass der Inhalt nicht mehr korrekt ist. Also, Tipparbeit sparen, dafür mehr lesen.
Quellen und Links
- Andrew Trask: Neuronale Netze und Deep Learning kapieren
Kommentare