Könnte die Neue Weltordnung voreingenommene, vormanipulierte Programme der künstlichen Intelligenz einsetzen, um zu versuchen, diejenigen mit unpopulären Meinungen zu “deprogrammieren”, indem sie ihnen einreden, dass ihre Logik nicht funktioniert?
Eine neue Studie zu diesem Thema, die von der John Templeton Foundation gefördert wurde, könnte den sogenannten Verschwörungstheoretikern einen weiteren Grund geben, paranoid zu sein, wie Popular Science berichtet.
Kritiker haben bereits Alarm geschlagen, dass Linksradikale im Silicon Valley und anderswo die Algorithmen zum Trainieren von KI so manipuliert haben, dass sie automatisch zu antikonservativen Vorurteilen tendieren.
Der nächste Schritt könnte darin bestehen, alle verbotenen Standpunkte in den Bereich der “Verschwörungstheorie” zu programmieren und dann leistungsstarke Computer zu einem logischen Wettstreit herauszufordern, der unweigerlich zu ihren Ungunsten ausfällt, da die Daten ausgewählt wurden.
Die Studie mit dem Titel “Durably reducing conspiracy beliefs through dialogues with AI” (Dauerhafter Abbau von Verschwörungsvorstellungen durch Dialoge mit KI) versuchte, der weitverbreiteten Ansicht entgegenzutreten, dass manche Menschen ihre Meinung nicht ändern, auch wenn sie mit Fakten und Beweisen konfrontiert werden.
Um das Problem des “weitverbreiteten Glaubens an unbegründete Verschwörungstheorien” anzugehen, postulierten die Forscher, dass Verschwörungstheorien im Gegensatz zum wissenschaftlichen Narrativ durch eine systematische Überprüfung der Fakten bekämpft werden können.
Zu den geprüften Theorien gehörten auch eher traditionelle Verschwörungen wie die Ermordung von John F. Kennedy oder die Möglichkeit der Landung von Außerirdischen, die der Regierung der Vereinigten Staaten bekannt waren.
Andere wiederum enthielten unmittelbarere politische Forderungen, wie die Rechtmäßigkeit der COVID-Abriegelungen oder die Gültigkeit der Präsidentschaftswahlen 2020, die beide “eine große Quelle öffentlicher Besorgnis” darstellen.
Die Studie wurde durchgeführt, indem konspirative Teilnehmer in kurze Gespräche mit der KI verwickelt wurden, mit dem Ziel, die Teilnehmer von ihren vermeintlich falschen Meinungen zu “heilen”.
Die Forscher kamen zu dem Schluss, dass “die Behandlung den Glauben der Teilnehmer an die von ihnen gewählte Verschwörungstheorie im Durchschnitt um 20 % verringerte”, was darauf hindeutet, dass die “Behandlung” von Menschen mit bestimmten Fakten tatsächlich ihre Meinung ändern kann, insbesondere wenn diese Fakten von KI-Bots stammen.
Die erhaltene “Behandlung” hielt Berichten zufolge auch “mindestens zwei Monate lang ununterbrochen an”, was bedeutet, dass eine solche Konditionierung zu einer regelmäßigen Behandlung derjenigen führen könnte, die als Verschwörungstheoretiker gelten.
Schließlich wurde festgestellt, dass die KI-Konditionierung ein potenziell nützliches Instrument ist, um auf die “psychologischen Bedürfnisse und Motivationen” dieser Menschen einzugehen. Die Forscher spekulierten, dass die Technologie in den kommenden Jahren online eingesetzt werden könnte, vornehmlich in Online-Foren oder in den sozialen Medien.
David Rand, ein Professor am Massachusetts Institute of Technology, der die Studie mitverfasst hat, äußerte sich gegenüber Reportern optimistisch über die Zukunft der KI-Konditionierung.
“Das ist wirklich aufregend”, sagte er. “Es schien zu funktionieren, und zwar auf breiter Basis.”
Meist kommentiert