Rinks- und lechtslastig

AIart
Midjourney/Burks

Heise: „Studie prüft, welche KI-Modelle eher links- oder rechtslastige Antworten geben“. Da wurde ich natürlich neugierig.

Linksgerichtete Sprachmodelle waren auch besser darin, Fehlinformationen aus rechtsgerichteten Quellen zu identifizieren, aber weniger empfindlich gegenüber Fehlinformationen aus linksgerichteten Quellen. Rechtsgerichtete Sprachmodelle zeigten das umgekehrte Verhalten.

Ach. Vielleicht sollte ich mir auch so etwas basteln: Eine linksextreme künstliche Intelligenz mit profunder Kenntnis des Marxschen Œuvres, die in Nullkommanix wesentliche Fragen des Universums beantwortet, etwa: Hat Nobuo Okishio recht, oder doch eher Michael Heinrich, oder sogar Paul Sweezy?

AIart

Linkslastige Modelle wurden noch linkslastiger und rechtslastige noch rechtslastiger.

Was heißt das überhaupt? Ich halte Gendersprache für rechtslastige Sprachesoterik; die „Linke“ würde das anders sehen. Eine deutsch trainierte KI würde Marx‘ Thesen über den Islam oder gar seine Äußerungen über „Nigger“ vermutlich als rechtspopulistisch oder AfD-nah eintüten. Und ist es sicher, dass die KI nicht Karl Marx mit Karl May verwechselt?

Oder soll ich hier autonome Blog-Agentinnen beschäftigen, die die User beschimpfen oder plötzlich in meiner Küche Kaffee trinken? Ich muss Jim Fan fragen, wie ich einen Simuation Server starte…

AIart

Eine weitere Einschränkung besteht darin, dass die Antworten eines Modells möglicherweise nicht seinen „inneren Zustand“ widerspiegeln, wie es Vosoughi nennt. Er verweist auf den Umstand, dass KI-Modelle dazu neigen, sich Antworten schlicht auszudenken.

Ach ja? Wenn die KI nichts weiß, denkt sie sich etwas aus? Echt jetzt? Das klingt aber schon sehr humanoid. Vermutlich gibt es bald die erste künstlich-intelligente Religionsgründung.