Forscher haben jetzt genau diesen Ansatz untersucht und müssen feststellen: Dann dreht die künstliche Intelligenz schnell einfach durch.
Durch das Füttern von GPT-2 mit Texten und Artikeln kann man dem Chatbot beibringen, wie er auf bestimmte Fragen und Anforderungen reagieren soll. Je mehr Texte man dem Chatbot zur Verfügung stellt, desto schlauer wird er. Man kann hierfür beispielsweise Texte über verschiedene Themen, wie Politik, Wissenschaft, Technologie oder Sport nutzen. Der Chatbot kann dann aufgrund seiner Programmierung und des GPT-2-Modells intelligente Unterhaltungen mit den Nutzern führen und passende Antworten auf ihre Fragen geben.
Schlussfolgerung: Ohne reale Daten seien zukünftige generative Modelle „dazu verdammt“, dass sich ihre Qualität progressiv verringert. Sie würde sozusagen in Inzucht degenerieren.