“Chain-of-thought-prompting elicits reasoning in large language models”

Jason Wei et al. – 2022
Wir untersuchen, wie das Erzeugen einer Denkkette – also einer Reihe von Zwischenschritten im logischen Schlussfolgern – die Fähigkeit großer Sprachmodelle zur Bewältigung komplexer Denkaufgaben erheblich verbessert. Insbesondere zeigen wir, dass solche Schlussfolgerungsfähigkeiten bei ausreichend großen Sprachmodellen auf natürliche Weise durch eine einfache Methode namens Chain-of-Thought Prompting entstehen. Dabei werden dem Modell einige Beispiele für Denkketten als Prompting-Exemplare gegeben. Experimente mit drei großen Sprachmodellen zeigen, dass Chain-of-Thought Prompting die Leistung in einer Vielzahl von Aufgaben verbessert, darunter arithmetisches, allgemeines und symbolisches Schlussfolgern. Die empirischen Verbesserungen sind teils bemerkenswert. Beispielsweise erreicht ein PaLM 540B, das mit nur acht Denkketten-Beispielen geprimt wurde, eine state-of-the-art Genauigkeit beim GSM8K-Benchmark für mathematische Textaufgaben – und übertrifft dabei sogar einen feingetunten GPT-3 mit Verifikator.
(Eigene Übersetzung des Abstracts von ACM Digital Liberary)

ISBN: 9781713871088