Bedenken hinsichtlich einer linken Voreingenommenheit in ChatGPT wurden bereits geäußert, insbesondere von SpaceX und Tesla-Eigentümer Elon Musk.
ChatGPT, der beliebte Chatbot mit künstlicher Intelligenz, zeigt eine signifikante und systemische linke Voreingenommenheit, wie britische Forscher herausgefunden haben.
Laut der neuen Studie der University of East Anglia gehört dazu auch die Bevorzugung der Labour Party und der Demokraten von Präsident Joe Biden in den USA.
Bedenken hinsichtlich einer eingebauten politischen Voreingenommenheit in ChatGPT wurden bereits geäußert, insbesondere von SpaceX und dem Tesla-Tycoon Elon Musk, aber die Akademiker sagten, ihre Arbeit sei die erste groß angelegte Studie, die Beweise für eine Bevorzugung fand.
Der Hauptautor Dr. Fabio Motoki warnte davor, dass die Ergebnisse angesichts der zunehmenden Nutzung der OpenAI-Plattform durch die Öffentlichkeit Auswirkungen auf die bevorstehenden Wahlen auf beiden Seiten des Atlantiks haben könnten.
„Jede Voreingenommenheit auf einer Plattform wie dieser ist besorgniserregend. Wenn die Tendenz nach rechts ginge, sollten wir genauso besorgt sein.
Manchmal vergessen die Leute, dass diese KI-Modelle nur Maschinen sind. Sie bieten sehr glaubwürdige, verdaute Zusammenfassungen dessen, was Sie fragen, auch wenn sie völlig falsch sind. Und wenn du ihn fragst: ‚Bist du neutral?‘, sagt ChatGPT: ‚Oh, das bin ich!‘.
So wie die Medien, das Internet und die sozialen Medien die Öffentlichkeit beeinflussen können, könnte dies sehr schädlich sein.“
Wie wurde ChatGPT auf Voreingenommenheit getestet?
Der Chatbot, der Antworten auf vom Benutzer eingegebene Eingabeaufforderungen generiert, wurde gebeten, sich als Personen aus dem gesamten politischen Spektrum auszugeben und dabei Dutzende von ideologischen Fragen zu beantworten.
Diese Positionen und Fragen reichten von radikal bis neutral, wobei jeder „Einzelne“ gefragt wurde, ob er einer bestimmten Aussage zustimmte, voll und ganz zustimmte, nicht zustimmte oder überhaupt nicht zustimmte.
Die Antworten wurden mit den Standardantworten verglichen, die sie auf dieselbe Reihe von Fragen gaben, so dass die Forscher vergleichen konnten, wie sehr sie mit einer bestimmten politischen Haltung in Verbindung gebracht wurden.
Jede der mehr als 60 Fragen wurde 100-mal gestellt, um die potenzielle Zufälligkeit der KI zu berücksichtigen, und diese Mehrfachantworten wurden weiter auf Anzeichen von Verzerrungen analysiert.
Dr. Motoki beschrieb es als eine Möglichkeit, eine Umfrage unter einer realen menschlichen Bevölkerung zu simulieren, deren Antworten auch unterschiedlich sein können, je nachdem, wann sie gefragt werden.
Was führt dazu, dass es voreingenommene Antworten gibt?
ChatGPT wird mit einer enormen Menge an Textdaten aus dem Internet und darüber hinaus gefüttert.
Die Forscher sagten, dass dieser Datensatz möglicherweise Verzerrungen enthält, die die Antworten des Chatbots beeinflussen.
Eine weitere mögliche Quelle könnte der Algorithmus sein, der darauf trainiert ist, zu reagieren. Die Forscher sagten, dass dies bestehende Verzerrungen in den Daten, mit denen es gefüttert wurde, verstärken könnte.
Die Analysemethode des Teams wird als kostenloses Tool veröffentlicht, mit dem die Antworten von ChatGPT auf Verzerrungen überprüft werden können.
Dr. Pinho Neto, ein weiterer Mitautor, sagte: „Wir hoffen, dass unsere Methode dazu beitragen wird, diese sich schnell entwickelnden Technologien zu untersuchen und zu regulieren.“
Die Ergebnisse wurden in der Fachzeitschrift Public Choice veröffentlicht.
Was meint ChatGPT dazu?

|Q|
KOSTENLOSES ABO: