Um zu erkennen, wann angespannte Online-Debatten auf einen unwiederbringlichen Zusammenbruch zusteuern, haben Forscher der Cornell University ein Tool für künstliche Intelligenz entwickelt, das diese Gespräche in Echtzeit verfolgen, erkennen kann, wann die Spannungen eskalieren, und Benutzer davon abhält, aufrührerische Sprache zu verwenden.
Die Forschung zeigt vielversprechende Anzeichen dafür, dass Konversationsprognosemethoden im Bereich der Verarbeitung natürlicher Sprache sich als nützlich erweisen könnten, um sowohl Moderatoren als auch Benutzern dabei zu helfen, Vitriol proaktiv zu verringern und gesunde, produktive Debattenforen aufrechtzuerhalten.
„Gut gemeinte Debattierer sind nur Menschen. Mitten in einer hitzigen Debatte, bei einem Thema, das einem sehr am Herzen liegt, kann es leicht sein, emotional zu reagieren und es erst im Nachhinein zu merken“, sagt Jonathan Chang, Doktorand in dem Bereich Informatik. Die Idee sei nicht, den Benutzern zu sagen, was sie sagen sollen, sagte Chang, sondern die Benutzer zu ermutigen, so zu kommunizieren, wie sie es bei einem persönlichen Gespräch tun würden.
Das Tool mit dem Namen ConvoWizard ist eine Browsererweiterung, die von einem tiefen neuronalen Netzwerk unterstützt wird. Dieses Netzwerk wurde mit Bergen von sprachbasierten Daten trainiert, die aus dem Subreddit Change My View stammen, einem Forum, das Debatten in gutem Glauben über potenziell hitzige Themen aus Politik, Wirtschaft und Kultur priorisiert.
Wenn teilnehmende Change My View-Benutzer ConvoWizard aktivieren, kann das Tool sie informieren, wenn ihre Konversation angespannt wird. Es kann Benutzer auch in Echtzeit informieren, während sie ihre Antworten schreiben, ob ihr Kommentar wahrscheinlich die Spannung eskalieren wird. Die Studie legt nahe, dass KI-gestütztes Feedback den Benutzer effektiv zu einer Sprache führen kann, die eine konstruktive Debatte fördert, sagten die Forscher.
„ConvoWizard fragt im Grunde: ‚Wenn dieser Kommentar gepostet wird, würde dies die geschätzte Spannung in der Konversation erhöhen oder verringern?‘ Wenn der Kommentar die Spannung erhöht, würde ConvoWizard eine Warnung ausgeben“, sagte Chang. Das Textfeld würde beispielsweise rot werden. „Das Tool bewegt sich auf diesem Weg, Feedback zu geben, ohne in das gefährliche Gebiet abzudriften, ihnen zu sagen, dass sie dies oder das tun sollen.“
Um ConvoWizard zu testen, arbeiteten Cornell-Forscher mit dem Subreddit „Change My View“ zusammen, wo etwa 50 teilnehmende Forumsmoderatoren und -mitglieder das Tool zum Einsatz brachten. Die Ergebnisse waren positiv: 68 % waren der Meinung, dass die Risikoschätzungen des Tools genauso gut oder besser als ihre eigene Intuition waren, und mehr als die Hälfte der Teilnehmer berichtete, dass ConvoWizard-Warnungen sie davon abhielten, einen Kommentar zu posten, den sie später bereut hätten.
Chang bemerkte auch, dass die Teilnehmer vor der Verwendung von ConvoWizard gefragt wurden, ob sie jemals etwas gepostet hätten, das sie bereuten. Mehr als die Hälfte sagte ja.
„Diese Ergebnisse bestätigen, dass sogar gut gemeinte Benutzer in diese Art von Verhalten verfallen und sich deswegen schlecht fühlen können“, sagte er.
„Es ist spannend, darüber nachzudenken, wie KI-gestützte Tools wie ConvoWizard ein völlig neues Paradigma für die Förderung qualitativ hochwertiger Online-Diskussionen ermöglichen könnten, indem sie die Teilnehmer an diesen Diskussionen direkt befähigen, ihre eigenen Intuitionen zu nutzen, anstatt sie zu zensieren oder einzuschränken“, sagte er Cristian Danescu-Niculescu-Mizil, außerordentlicher Professor für Informationswissenschaft.