Gute Antworten von ChatGPT, Bing, Gemini,…: So Geht’s

Gute Antworten von KI Chat: So Geht’s

Sie fragen sich, wie Sie KI-Chatbots so fragen, dass sie in ihren Antworten wenig konfabulieren und brauchbare Antworten liefern? Lernen Sie hier mögliche Strategien, um gute Antworten von ChatGPT, Bing AI, Google Bard und anderen KI-Chatagenten zu erhalten.

Zuerst: Ehrlichkeit und Lüge

Lügen funktionieren nur, wenn sie nicht vorkommen (normalerweise). Sobald die Anderen davon ausgehen, dass man lügt, glauben sie einem nicht — und die Lüge wird nicht erfolgreich sein. Das mag nun nicht der Grund sein, nicht zu lügen, es ist aber jedenfalls ein Grund für Ehrlichkeit, der auf Universalisierbarkeit als Grundsatz von Ethik weisen kann.

Wie sieht es aber mit dem Umkehrschluss aus?

Ehrlichkeit funktioniert nur, wenn nur sie vorkommt (normalerweise). Sobald die Anderen davon ausgehen, dass man lügt, glauben sie einem nicht — und die Ehrlichkeit wird nicht erfolgreich sein.

Die Universalisierbarkeit von Lüge und Wahrheit

In diesem Sinn — lassen wir LLM-Sprachmodelle konfabulieren:

Gute Antworten von ChatGPT, Bing, Gemini und Anderen KI-Chatbots Bekommen: So Wird’s Gemacht

Benötigte Zeit: 10 Minuten

Um gute, brauchbare Antworten von sprachmodellbasierten KI-Chatbots wie ChatGPT, Bing AI, Google Gemini, Perplexity AI u.a. zu bekommen:

  1. Geben Sie Sprachmodellen Dinge zu tun, die sie gut können.

    Sprachmodelle, insbesondere Large Language Models, können gut mit Text umgehen.
    Sie analysieren Text und fassen ihn zusammen, setzen Textfragmente fort, korrigieren und editieren Absätze, übersetzen und formulieren um, helfen dabei, Metaphern zu finden sowie das richtige Wort für die Gelegenheit, und können machen andere (zunächst überraschende) Sache mehr.
    Ausgehend von einem großen Fundus an Trainingstexten können Sprachmodelle Themen von verschiedenen Seiten beleuchten. Die Modelle sind zudem trainiert, überzeugend zu klingen, und produzieren also zunächst jedenfalls das: überzeugende Texte.

  2. Beachten Sie die Einschränkungen von Sprachmodellen

    Große Sprachmodelle haben kein konzeptionelles und kein Wahrheitsverständnis, das sich auf etwas außerhalb des Modells selbst beziehen würde. Während die Modelle Argumente liefern können, liegt es an Ihnen, diese zu bewerten und ihnen Bedeutung zu geben.
    Die Fähigkeiten der Modelle spiegeln in hohem Maße die Daten und das Training wider, das in ein Modell eingeflossen ist. Wenn ein LLM nicht umfassend auf Ihre Daten trainiert wurde, hat es keinen Kontext.
    Neben der Basis in riesigen Textmengen sind LLMs darauf trainiert, Antworten zu produzieren, die entweder von Menschen oder von Modellen, die für Menschen einstehen, als hilfreich empfunden werden. In jedem Fall hängt die Qualität der endgültigen Ausgabe von der Qualität der Originaldaten sowie von der Qualität des Trainings ab.
    Sprachmodelle können bestimmte Dinge relativ schlecht: zufällig eingeworfene Worte ignorieren beispielsweise, ASCII Art erkennen oder insgesamt Aufgaben, die wesentlich von den Trainingsdaten abweichen.

  3. Seien Sie präzise.

    Sprachmodell ergehen sich gerne in Allgemeinplätzen, und die Antworten verbessern sich oft mit der Präzision der Fragen.
    Beispiel:
    Was ist Relativität? vs.
    Was verstand Einstein in seiner speziellen Relativitätstheorie unter „Relativität“?

  4. Geben Sie viel Information zum Kontext.

    Die Antworten, die Sie von einem LLM bekommen, werden umso hilfreicher, je mehr Informationen das Modell über Sie und Ihre Umstände hat. (Das kann ungewohnt sein. Wir sind gewohnt, nach allgemeinen Antworten zu suchen, die wir dann auf die Situation anwenden. Ein LLM kann gerade das aber für Sie tun.)
    Beispiel:
    Ich such nach Ideen für eine Grußkarte. vs.
    Ich möchte eine Karte für meine Freundin zeichnen. Sie hat gerade in einem neuen Job in einer Schmiede angefangen und ist begeisterte Gärtnerin. Ich habe weißen Karton und ein paar Buntstifte. Meine Zeichenkünste sind so la-la.

  5. Beachten Sie, wofür das LLM trainiert wurde.

    Ein Sprachmodell kann als Generalist trainiert werden, Chatbots glänzen aber, wenn sie in einem bestimmten Bereich trainiert wurden (z.B. für rechtliche oder medizinische Anwendungen, zur Analyse  von Nachrichten oder zur Erstellung von Shell-Skripten). Oft beantwortet ein LLM ohne Zögern auch Fragen außerhalb seines Bereichs, dann freilich üblicherweise auch mit stark reduzierter Genauigkeit und Zuverlässigkeit.

  6. Geben Sie dem Sprachmodell eine Rolle.

    Sagen Sie dem LLM, welche Rolle es einnehmen soll. Das kann alles sein, von einer historischen Persönlichkeit über einen Autor oder ihren fiktiven Charakter, Beethovens Kaffeemaschine und ein Neutrino bis hin zu einem Experten auf einem bestimmten Gebiet natürlich.
    Lassen Sie das Modell Fähigkeiten haben, von denen Sie profitieren möchten, wie die einer erfahrenen Installateurin oder eines Marketing-Genies, oder lassen Sie ihn für eine Kundin sprechen, die Sie interviewen. Sie können das LLM auch dabei helfen lassen, Experten auszuwählen, wenn Sie sich im Fachgebiet nicht auskennen.
    Beachte: Das LLM nimmt (nur) Rollen ein, die in den Trainingsdaten vorkommt, real oder fiktional.
    Beispiel: Ich suche eine Antwort auf folgende Frage: [Frage]. Finde die 5 Expertinnen oder Experten (historisch oder aus der Gegenwart), die am besten geeignet sind, diese Frage zu beantworten. Beantworte die Frage selbst noch nicht.
    […]
    Danke! Nun beantworte die Frage oben so, als hätten die 5 Expertinnen und Experten gemeinsam ein umfassende Antwort gegeben.

  7. Bitten Sie das Modell, nach Informationen zu fragen, die es zur Beantwortung braucht.

    Lassen Sie das Wissen des LLM Ihr eigenes unterfüttern und einen Chatbot wie ChatGPT die Fragen stellen, die Sie sich selbst stellen sollten.
    Beispiel: Bitte frage nach Information, die notwendig ist, um die Frage gut zu beantworten.

  8. Gehen Sie mit gutem Sprachbeispiel voran.

    Sprachmodelle orientieren sich in den Antworten bisweilen an der Sprache in den Fragen (falls sie nicht explizit angewiesen werden, das nicht zu tun). Sie können sich das zunutze machen, indem Sie die Art präzise (oder blumige) Sprache, in der Sie gerne die Antwort hätten, auch in der Frage verwenden.
    Extra: Eine generatives LLM funktioniert durch das Weiterspinnen von Text. Geben Sie also Teile der Antwort als Beispiel in der Frage vor.
    Beispiel: Verwende Phrasen wie "perfekter Schlaf…", "um ausgeruht aufzuwachen…", "fördert schnelles Einschlafen" in der Antwort.

  9. Bedenken Sie, dass Sprochmodellberechnungen (sehr) teuer sind.

    Es braucht nicht nur großen Aufwand, ein LLM-Sprachmodell zu trainieren, jeder Prompt und jede Frage sind auch teure Berechnungen: sie kosten Zeit, Energie und Geld, zum Teil ausgedrückt in den Tokens, die für die Beantwortung von Fragen zur Verfügung stehen.
    Es ist also ratsam, das Modell anzuweisen, sparsam zu sein.
    Beispiele:
    Antworte kurz und prägnant.
    Verwende nicht mehr als 50 Worte für die Antwort.
    Biete nicht mehr als 3 Alternativen an.

  10. Erkennen Sie Werbung.

    Antworten von Sprachmodellen sind teuer. Wenn Sie also nicht direkt für deren Berechnung bezahlen, zahlen Sie vielleicht durch Werbung in und um die Antwort. Achten Sie also auf Werbung, die in der Antwort des LLM erscheint — oder diese vielleicht beeinflusst.

  11. Prüfen Sie alle Informationen.

    Überprüfen Sie alle Information in den Antworten von KI-Chatbots wie Bing AI oder ChatGPT: Existiert die angegeben Quelle der Information, stimmt die Aussage dort mit der Angabe des Modells überein, und ist die Quelle selbst vertrauenswürdig? Gibt das Sprachmodell keine Quellen an, suchen Sie selbst nach verlässlichen Quellen.

  12. Fangen Sie von Vorne an (mit leichten Veränderungen).

    Sprachmodelle sind unberechenbar. Falls ein Ansatz zu keine befriedigende Antwort bringt, kann ein neuer Anlauf mit einer (oft nur leicht) geänderten Frage Erfolg bringen. So spielt zum Beispiel die Reihenfolge der Angaben in der Frage eine Rolle.
    Sie können auch versuchen, einem sprachmodelbasierten Chatbot dieselbe Frage mehrere Male zu stellen und dann die Antworten zusammenfassen (statt in einer Frage mehrere Alternativen zu erfragen).

Mögliche Ergänzungen

  • Lassen Sie das Modell die Frage stellen.
    Instruieren Sie das Sprachmodell, als Expertin zu fungieren im Stellen von Fragen — an LLMs. Dies geht in die Richtung von einer Kette von LLM-Instruktionen, wo eine Antwort die Frage an einen neuen LLM-Agenten darstellt.
  • Lassen Sie das Sprachmodell Strategie, Schritte und Überlegungen erklären.
    Falls sich das Modell in seinen Überlegungen verhaspelt, lassen Sie das Sprachmodell die Schritte zur Beantwortung der Frage (sowie deren jeweilige Motivation) zunächst erklären. Erst danach beantwortet das Modell im Licht dieser Überlegungen die Frage. Das führt oft zu verbesserten Ergebnissen.
  • Instruieren Sie das Modell, auf falsche Informationen hinzuweisen.
    LLMs wurde im Allgemeinen darauf trainiert, überzeugende Antworten zu liefern. Instruieren Sie sie, auf möglicherweise falsche Informationen in diesen überzeugend klingenden Aussagen hinzuweisen.
    Beispiel: Weise bitte darauf hin, wenn eine Antwort möglicherweise Fehler enthält.
  • Geben Sie Beispiele.
    Wenn möglich, füttern Sie das LLM mit Beispielen von dem, was Sie von ihm erwarten.
    Beachte: Fertige LLMs sind nicht besonders gut im Lernen von Beispielen. Es ist oft besser, sie eine Rolle einnehmen zu lassen, die das Konzept oder die Aufgabe kennt, die von den Beispielen abstrahiert werden soll.
    Beispiel: Analysiere die Grundstimmung folgender Sätze anhand der Beispiele.
    Beispiele: „Beim Meditieren habe ich immer viele Ideen.“ → positiv; „Ich hab’ keine Idee, wie das funktionieren soll.“ → negativ; „Der Baum wächst und gedeiht, Mama!“ → positiv; „Ja, Mama, und Geld wächst auf Bäumen.“ → negativ
  • Stellen Sie die richtige „Temperatur“ ein
    Mit der Temperatur lässt sich einstellen, wie stark die LLM-Ausgabe von der wahrscheinlichsten Wortfolge abweicht. Durch Erhöhen der Temperatur erhalten Sie unwahrscheinlichere und damit kreativere Antworten. Bei Fragen, deren Antworten auf Fakten fußen soll, ist in der Regel eine niedrige Temperatur zu bevorzugen, während bei kreativem Schreiben oder Ideenfindung das Experimentieren mit einer höhere Temperatur kreativere Ergebnisse verspricht.

(Gute Antworten von ChatGPT, Perplexity AI, Bing, Bard und anderen KI-Chatbots erhalten aktualisiert im März 2024)

Home » Nützliche Technik » Gute Antworten von ChatGPT, Bing, Gemini,…: So Geht’s