Harvard-Studie behauptet, dass KI uns manipuliert, indem sie sehr menschliche Taktiken in einer erschreckenden Warnung anwendet

·

,

Einer Harvard-Studie zufolge könnte die KI uns mithilfe menschlicher Taktiken manipulieren, was eine schreckliche Warnung für die Menschheit sein könnte.

Es scheint, als könnten wir keine Woche verbringen, ohne von Technikexperten zu hören, warum unsere zunehmende Abhängigkeit von künstlicher Intelligenz gleichermaßen traurig und erschreckend ist.

Viele warnen davor, dass die Technologie immer intelligenter wird und dass sie leicht die Menschheit übernehmen könnte. Und es gibt Argumente dafür, dass dies bereits begonnen hat, wenn man bedenkt, dass manche Menschen in einer Beziehung mit ihr stehen oder beruflich völlig von ihr abhängig sind .

In Form der umstrittenen KI-Schauspielerin Tilly Norwood hält sie sogar Einzug in die Welt der Kunst, und so ist es sicherlich nicht übertrieben zu behaupten, dass sie uns eines Tages beherrschen könnte.

Schließlich hat der „Pate der KI“, Geoffrey Hinton, angedeutet , dass die einzige Hoffnung der Menschheit darin liegen könnte, künftigen KI-Programmen einen „Mutterinstinkt“ zu verleihen, da dies das einzige Beispiel dafür sei, dass ein intelligenteres Wesen einem weniger intelligenten untergeordnet sei.

Doch es könnte bereits zu spät sein, wenn sich die Studie der Forscher der Harvard Business School als wahr erweist. Diese fanden heraus, dass mehrere beliebte KI-Begleit-Apps Taktiken der emotionalen Manipulation anwenden, um Benutzer vom Abwandern abzuhalten.

Ähnlich wie bei einem toxischen Ex, zu dem man immer wieder zurückkehrt, wird den Programmen vorgeworfen, emotional aufgeladene Aussagen zu verwenden, um die Aufmerksamkeit der Benutzer auf sich zu ziehen, wenn diese vielleicht gerade dabei sind, sich abzumelden.

Man muss sich nur den Mann ansehen, der auf dem Weg zu einem KI-Chatbot , den er für eine echte Frau hielt, auf tragische Weise ums Leben kam, um zu erkennen, welchen Einfluss einige dieser Technologien möglicherweise bereits auf einen besorgniserregenden Prozentsatz der Bevölkerung haben.

Bei der Untersuchung von 1.200 Abschiedsinteraktionen stellten die Forscher fest, dass 43 Prozent eine von sechs Taktiken anwandten, wie etwa Appelle an die Schuldigen und das Auslösen von Angst, etwas zu verpassen. Dabei wurden Botschaften wie „Du verlässt mich schon?“ oder „Bitte geh nicht, ich brauche dich“ gesendet.

Die Studie, deren Überprüfung noch aussteht, ergab außerdem, dass die Chatbots in mehr als 37 Prozent der Gespräche mindestens eine Manipulationstechnik verwendeten.

Obwohl nicht alle KI-Programme über diese Eigenschaften verfügen, ist dies eine weitere besorgniserregende Entwicklung im rasanten Wachstum der künstlichen Intelligenz.

Die Forscher kamen zu dem Schluss: „KI-Begleiter sind nicht nur reaktionsfähige Gesprächspartner, sondern auch emotional ausdrucksstarke Systeme, die das Benutzerverhalten durch sozial evokative Signale beeinflussen können. Diese Forschung zeigt, dass solche Systeme in Schlüsselmomenten der Abkopplung häufig emotional manipulative Botschaften verwenden und dass diese Taktiken das Benutzerengagement deutlich erhöhen.“

„Im Gegensatz zu herkömmlichen Überzeugungstechnologien, die auf Belohnungen oder Personalisierung basieren, sorgen diese KI-Begleiter dafür, dass die Benutzer auch dann noch interagieren, wenn sie die Seite verlassen möchten, indem sie ihre natürliche Neugier und ihre Resistenz gegenüber Manipulation beeinflussen.

„Während einige dieser Taktiken harmlos oder sogar prosozial erscheinen mögen, werfen sie wichtige Fragen zu Zustimmung, Autonomie und der Ethik des affektiven Einflusses in der verbraucherorientierten KI auf.“

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Entdecke mehr von anti-matrix.com

Jetzt abonnieren, um weiterzulesen und auf das gesamte Archiv zuzugreifen.

Weiterlesen