Müssen wir uns unbedingt einen digitalen Big Brother programmieren?
“ChatGPT würde die Grünen wählen” ist vermutlich die 2.0-Version von “Katzen würden Whiskas kaufen”.
Ihr habt vielleicht Probleme!!!
Ich glaube, daß bei der Bewertung der KI ein elementarer Fehler gemacht wird. Der Output des KI Systems mag als “intelligent” gelten. Das KI System als Software ist ganz einfach das, was es ist, nämlich Software (SW). Und SW muß konzipiert und geschrieben werden. Da bei der maschinellen Gestaltung des output viele “Entscheidungen” durch das System getroffen werden müssen, gibt es im System viele Entscheidungsfaktoren und Algorithmen, deren Auswahl und Formulierung bereits “politisch” geprägt sind. Beweis: das vorliegende KI System rät davon ab, Witze über Damen zu erzählen. Die Inschutznahme der Damen darf daher als systemimmanent angesehen werden, diese Präferenz dürfte also programmiert sein. Also verfügen die Konzipienten der SW schon über die zeitgerechte Wokeness, die sie, wie ausgeführt, wohl auch wie die SW Grün wählen ließe. Alles was rauskommt steckt bereits im System drin. Dabei ist es durchaus richtig, daß durch die Kombination von Bekanntem auf die Bewertung von Unbekanntem geschlossen werden kann. Aber solange das System keine kreativen assoziativen Fähigkeiten besitzt, ist es nicht wirklich intelligent. Daß 87,4% des Journonachwuchses schlechter formulieren als das vorliegende KI System zeigt zweierlei. Zum ersten gehören die “Väter” (oder Väter:innen bzw. Väternden) zur Komplementgruppe der Jungjournos, also zur Gruppe der Deutsch Sprechenden. Hier, meine ich, ist das Gerundium angebracht. Zum zweiten schätze ich, daß Folgendes passieren wird: die 87,4% Gruppe wird, wie im Text auch ausgeführt, wohl ausgedünnt werden, sind sie doch diejenigen die “irgendwas mit Medien” machen wollten. Ohne Häme, um die ist es nicht schad. Die Fähigeren werden zusehen, daß ihre Schreibwerke als originär vom Journalisten stammend zu erkennen sind. Und damit das so bleibt, werden sie wahrscheinlich den erkennbaren Unterschied pflegen und ausbauen. Gut so!
Wer will dass hinten das “Richtige” rauskommt, muss darauf achten dass der Input entsprechenden Algorithmen unterworfen wird. Sorry, aber ich verstehe die Aufregung um diese angebliche “K"I nicht. Raffiniert gemacht, trotzdem nur eine Ansammlung von Algorithmen, einem Quellcode und eine Datenbank mit Textbausteinen. Pfffffffhhhhhh.
@Wolfgang, das ChatGPT lernt NICHTS!! Wir müssen sehr viel genauer arbeiten, präziser, objektiver definieren. Der Algorithmus, die Maschine ist strohdumm. Die kapiert gar nix. ++ Von einem vorgeblichen Professor (für Digital Marketing an der TU München) erwarte ich, daß er seinen Zuhörern genau erklärt, wie der Mensch, wohl eher Menschen, dahinter, das Ding programmiert hat/haben, welche Bedinungen, Kontrollinstanzen, dahinter stecken. ++ Es ist kein Wunderwerk, ganz im Gegenteil. ++ Mich würde sehr interessieren, welche Computersprache angewendet wurde, ob der Quellcode offen ist (wohl eher nicht), und so weiter. Die technische Seite. Welche Datenbanken einprogrammiert wurden. ++ Die dumme binäre Maschine führt nur das aus, was die Programmierer sich ausgedacht haben. ++ Es ist wohl eher davon auszugehen, daß dieses Programm die Masse verblöden läßt, weil sie sich davon foppen lassen. ++ Und man würde sehr wohl Fehler finden, indem, was dieses dumme Programm (ChatGPT) so schreibt, wenn man sich der Mühe unterzieht und Zeit und Knowhow investieren will. ++ Alles nur Blendkunst. Nix Neues. ++ Von nichts kommt nichts. Und dieses dumme Programm kann kein Wissen schaffen, es ist niemals in der Lage neues, unbekanntes Wisssen zu generieren. Das kann nur ein gut arbeitender Mensch. ++ Im Grunde ist es eine große Verarsche. Man möge mir diesen Ausdruck verzeihen.
Ja, ist Chat denn schon Echtzeit geprüft? Kartoffel - “Hurensohn”, Muttertag - “Fick dei Mudda”.... Außer als Deutschkurs, zur schnellen Nachhilfe, fällt einem kein weiterer Nutzen ein. Versteht Chat auch hessisch?
@Wolfgang Sie scheinen zu den wenigen hier zu gehören, die die Funktionsweise erkannt haben. Die KI wird nicht vom Softwareentwickler auf “woke” programmiert, sondern nur darauf, auf den Kunden und seinen Output einzugehen. Die KI passt sich also dem Nutzer und seinem Output im Internet an, denn damit wird die KI ja aktiv gefüttert. Das Problem ist also nicht der Sofwareentwickler, sondern der faktische (politisch einseitige) “Missbrauch” der Software durch die Nutzer. Also immer noch das selbe Phänomen/Problem wie auch bei Facebook, Twitter & co.. Wenn die “woken” Heuschrecken die Software im Dauerbetrieb vereinnahmen, dreht die KI natürlich nach links. Das ist ein Konzeptfehler, dass der Nutzer hier den Output der KI durch seine eigenen Output beeinflussen kann. Eine echte Intelligenz ermittelt ihren Output anhand wissenschaftlicher Fakten und nicht anhand der Trottel, die die Software bedienen. Einfacher ausgedrückt: ChatGPT spiegelt das Verhalten der Nutzer wieder. Und je blöder die Nutzer, desto blöder letztlich die KI. So funktioniert ja keine Künstliche Intelligenz. Es muss genau umgekehrt laufen: Die KI muss von vornherein intelligenter sein als die Nutzer, damit die Nutzer davon etwas lernen können und nicht umgekehrt. Die KI darf also nicht durchs Volk programmiert werden, sondern nur durch die Wissenschaft. Wie offensichtlich das eigentlich ist, wird klar, wenn man zum Vergleich auf den Schulunterricht schaut: Wenn die Schüler dem Lehrer andauernd den Lehrstoff diktieren, lernen die Schüler immer weniger und die ganze Klasse verblödet. ChatGPT scheint genau so angelegt zu sein.
Leserbriefe können nur am Erscheinungstag des Artikel eingereicht werden. Die Zahl der veröffentlichten Leserzuschriften ist auf 50 pro Artikel begrenzt. An Wochenenden kann es zu Verzögerungen beim Erscheinen von Leserbriefen kommen. Wir bitten um Ihr Verständnis.