Kyle Mahowald et al. – 2024
Large Language Models (LLMs) sind unter allen bisherigen Modellen am weitesten darin fortgeschritten, die menschliche Sprache zu beherrschen. Dennoch gehen die Meinungen über ihre sprachlichen und kognitiven Fähigkeiten weit auseinander. In dieser Arbeit bewerten wir LLMs anhand einer Unterscheidung zwischen formaler (umfasst das Wissen über sprachliche Regeln und Muster) und funktionaler (bezieht sich auf das Verstehen und Verwenden von Sprache in realen Kontexten) Sprachkompetenz. Diese Unterscheidung stützen wir auf Erkenntnisse aus der neurowissenschaftlichen Forschung am Menschen, die gezeigt hat, dass formale und funktionale Sprachkompetenz auf verschiedenen neuronalen Mechanismen basieren. Während LLMs erstaunlich gut in der formalen Sprachkompetenz sind, bleibt ihre Leistung in funktionalen Sprachaufgaben uneinheitlich. Oft sind dafür spezialisierte Feinabstimmung (Fine-Tuning) oder externe Module erforderlich. Wir argumentieren, dass Modelle, die Sprache auf menschliche Weise nutzen, beide Kompetenztypen beherrschen müssten. Dies könnte wiederum die Entwicklung getrennter, spezialisierter Mechanismen für formale und funktionale Sprachkompetenz erfordern.
(Eigene Übersetzung des Abstracts von Cell Press)
DOI: https://doi.org/10.1016/j.tics.2024.01.011