Technologien der künstlichen Intelligenz wie ChatGPT machen heutzutage scheinbar alles: Code schreiben, Musik komponieren und sogar Bilder erstellen, die so realistisch sind, dass Sie glauben, sie seien von professionellen Fotografen aufgenommen worden. Fügen Sie Denken und Reagieren wie ein Mensch zu den Conga-Fähigkeiten hinzu. Eine aktuelle Studie der BYU beweist, dass künstliche Intelligenz komplexe Umfragefragen wie ein echter Mensch beantworten kann.
Um die Möglichkeit der Verwendung künstlicher Intelligenz als Ersatz für menschliche Antwortende in Umfragen zu ermitteln, testete ein Workforce von Politikwissenschafts- und Informatikprofessoren und Doktoranden an der BYU die Genauigkeit programmierter Algorithmen eines GPT-3-Sprachmodells – a Modell, das die komplizierte Beziehung zwischen menschlichen Ideen, Einstellungen und soziokulturellen Kontexten von Subpopulationen nachahmt.
In einem Experiment erstellten die Forscher künstliche Personas, indem sie der KI bestimmte Merkmale wie Rasse, Modify, Ideologie und Religiosität zuwiesen; und dann getestet, ob die künstlichen Personas bei den US-Präsidentschaftswahlen 2012, 2016 und 2020 genauso wählen würden wie Menschen. Unter Verwendung der American Nationwide Election Research (ANES) für ihre vergleichende menschliche Datenbank fanden sie eine hohe Übereinstimmung zwischen der Artwork und Weise, wie die KI und Menschen wählten.
„Ich warfare absolut überrascht zu sehen, wie genau es übereinstimmte“, sagte David Wingate, Informatikprofessor an der BYU und Mitautor der Studie. „Es ist besonders interessant, weil das Modell nicht für Politikwissenschaft trainiert wurde – es wurde nur mit hundert Milliarden Textwörtern trainiert, die aus dem Web heruntergeladen wurden.
In einem anderen Experiment konditionierten sie künstliche Personas, um Antworten aus einer Liste von Optionen in einer Befragung im Stil eines Interviews anzubieten, wobei sie wiederum die ANES als ihre menschliche Stichprobe verwendeten. Sie fanden eine große Ähnlichkeit zwischen nuancierten Mustern in menschlichen und KI-Antworten.
Diese Innovation birgt aufregende Perspektiven für Forscher, Vermarkter und Meinungsforscher. Forscher stellen sich eine Zukunft vor, in der künstliche Intelligenz verwendet wird, um bessere Umfragefragen zu erstellen und sie so zu verfeinern, dass sie zugänglicher und repräsentativer sind; und sogar schwer erreichbare Populationen simulieren. Es kann verwendet werden, um Umfragen, Slogans und Slogans als Vorläufer für Fokusgruppen zu testen.
„Wir lernen, dass KI uns helfen kann, Menschen besser zu verstehen“, sagte Ethan Busby, Professor für Politikwissenschaft an der BYU. „Es ersetzt nicht Menschen, aber es hilft uns, Menschen effektiver zu studieren. Es geht darum, unsere Fähigkeiten zu erweitern, anstatt sie zu ersetzen. Es kann uns helfen, effizienter in unserer Arbeit mit Menschen zu sein, indem es uns ermöglicht, unsere Umfragen und unser Messaging vorab zu testen .“
Und während die weitreichenden Möglichkeiten großer Sprachmodelle faszinierend sind, wirft der Aufstieg der künstlichen Intelligenz eine Vielzahl von Fragen auf – wie viel weiß KI wirklich? Welche Bevölkerungsgruppen werden von dieser Technologie profitieren und welche werden negativ beeinflusst? Und wie können wir uns vor Betrügern und Betrügern schützen, die die KI manipulieren, um raffiniertere Phishing-Betrügereien zu erstellen?
Während vieles davon noch bestimmt werden muss, legt die Studie eine Reihe von Kriterien fest, die zukünftige Forscher verwenden können, um zu bestimmen, wie genau ein KI-Modell für verschiedene Themenbereiche ist.
„Wir werden certain Vorteile sehen, weil es neue Fähigkeiten freisetzen wird“, sagte Wingate und merkte an, dass KI Menschen in vielen verschiedenen Berufen helfen kann, effizienter zu sein. „Wir werden auch adverse Dinge erleben, weil Computermodelle manchmal ungenau und manchmal voreingenommen sind. Es wird die Gesellschaft weiter aufwühlen.“
Busby sagt, dass die Befragung künstlicher Personas nicht die Notwendigkeit ersetzen sollte, echte Menschen zu befragen, und dass Akademiker und andere Experten zusammenkommen müssen, um die ethischen Grenzen der Befragung künstlicher Intelligenz in der sozialwissenschaftlichen Forschung zu definieren.