Gastautor / 10.01.2023 / 06:00 / Foto: TimsAI / 104 / Seite ausdrucken

Künstliche Intelligenz als Achgut-Autor – Würden Sie das lesen?

Von Okko tom Brok.

Nach dem Motto „Alle reden davon, wir machen’s“ habe ich mich auf die Spur des neuen, digitalen und offenbar unerschöpflichen Journalismus der Zukunft begeben – und den gerade gestarteten Online-Computer „ChatGPT“ einen Achgut-Artikel schreiben lassen. Das Ergebnis ist durchwachsen und etwas Entscheidendes fehlt.

Nach dem Motto „Alle reden davon, wir machen’s“ habe ich mich auf die Spur des neuen, digitalen und offenbar unerschöpflichen Journalismus der Zukunft begeben: ausgeübt nur noch von Computern. Die Zeiten, in denen „querulantische Nörgler“ Anspruch auf Einlass in die Bundespressekonferenz begehren, wären damit endgültig vorbei. Denn was selbst Science-Fiction-Autoren wie Aldous Huxley oder George Orwell verstiegen erschienen sein dürfte, ist vor wenigen Wochen Realität geworden: Roboter, die denken und eigene Texte schreiben können. Könnte sogar dieser Text von einem Roboter stammen? Finden Sie es heraus.

Der Kollege Alexander Wendt beschreibt auf seinem Blog Publico „Das Ende der schnatternden Klasse durch künstliche Intelligenz und die Unsterblichkeit“. Schon der Titel des Artikels macht jedoch klar, dass es sich um einen Pyrrhus-Sieg des menschlichen Geistes handeln könnte, der uns aber immerhin nebenbei von Schreiberlingen der Marke Relotius und Co. zu befreien verspräche. „Gain a little, lose a lot?“

Während wir uns seit vielen Jahren an Roboter in der Produktfertigung gewöhnt hatten, schienen hingegen für lange Zeit bestimmte intellektuelle Fähigkeiten alleine dem Menschen vorbehalten. Hatte nicht einst sogar der prominente US-Journalist Tom Friedman in The World is Flat nicht nur ein Loblied der Globalisierung gesungen, sondern hochqualifizierte akademische Berufe als weitgehend zukunftssichere „Untouchables“ bezeichnet, während die Masse der beruflichen Tätigkeiten in Büros und Werkhallen den unermüdlich arbeitenden und dabei so unendlich viel effizienteren Maschinen zum Opfer fallen werde?  

Und wer zur Bestätigung von Friedmans These noch vor wenigen Jahren den „Google Translator“ oder eine andere Übersetzungssoftware zur Hand nahm, mag zwar als einfacher Anwender enttäuscht von der geringen Ergebnisqualität gewesen sein, als „Profi“ im Bereich der Textindustrie, sei er oder sie nun Zeitungsredakteur, Lehrer oder Übersetzer, dann doch erleichtert aufgeatmet und sich per stillem Dankgebet gefreut haben: „Mein Job ist sicher!“

„ChatGPT is scary good“

Welch eine narzisstische Kränkung: Mit dem Online-Start von ChatGPT am 30. November 2022 wurden die Karten neu gemischt, als ein Chatbot spezialisiert auf menschliche Kommunikation in Kalifornien ans Netz ging und seither bereits hohe Wellen geschlagen hat (ungefähr 21.300.000 Ergebnisse bei Google; zum Vergleich: „Okko tom Brok“ hat schlappe 4.860 Ergebnisse, und die meisten davon gehen noch nicht einmal auf mich selbst zurück!). Mit ChatGPT (GPT = Generative Pre-Trained Transformer) wurde im Internet ein kostenloses digitales Werkzeug verfügbar gemacht, das die menschliche Kommunikation so gut nachahmt, dass es inzwischen verblüffende, ja mitunter fast schon „besorgniserregend“ gute Resultate erzeugt, wie selbst Miterfinder und Gründergenie Elon Musk bei Twitter keinesfalls nur flapsig-ironisch befand: „ChatGPT is scary good.

Die Vorgeschichte von ChatGPT ist lang. Bereits in den 1950er Jahren veröffentlichte Alan Turing (1912 – 1954) seinen grundlegenden Artikel „Computing Machinery and Intelligence“ im Journal „Mind“, in welchem er bereits für möglich hielt, dass Maschinen über Intelligenz verfügen könnten. Der von Turing seinerzeit entwickelte Turing Test diente denn auch dem Nachweis maschineller Intelligenz. Bei diesem Test musste ein Proband mit zwei für sie oder ihn nicht sicht- oder hörbaren Kommunikationspartnern per Bildschirm und Tastatur kommunizieren, von denen einer eine Maschine und einer ein Mensch sein musste. Sobald es dem Probanden nicht mehr gelänge, zu entscheiden, welcher Partner die Maschine war, würde der Turing Test als bestanden gelten, und der Maschine könnte ein „dem Menschen ebenbürtiges“ Intelligenzniveau zugeschrieben werden. 

Dennoch blieben die Erfolge der KI gerade auf dem Gebiet von Sprache und Kommunikation über lange Jahre äußerst bescheiden. Den nächsten Meilenstein bildete das von dem deutsch-amerikanischen Informatiker Joseph Weizenbaum (1923 – 2008) entwickelte Programm ELIZA, das zwischen 1964 und 1966 entstand und basierend auf der empathischen Gesprächstechnik des US-amerikanischen Psychologen Carl Rogers (1902 – 1987) eine psychologische Therapiesitzung nachahmte, indem es aus einzelnen Stichwörtern des Probanden erneut Gesprächsanlässe und Gegenfragen abzuleiten vermochte. Online kann man ELIZA immer noch testen. 

Sinnwidrigkeit und groteske Redundanz

Doch ELIZA ist nicht wirklich intelligent, wie man auch ohne den schon erwähnten Turing Test sehr schnell ermessen kann. ELIZA schöpft aus einem viel zu eng begrenzten Bestand aus definierten Schlagwörtern und Redewendungen, die quasi „auf Knopfdruck“ abgespult werden. Im Grunde ist ELIZA eher mit einem gut dressierten Papagei vergleichbar, der einzelne menschliche Phoneme beziehungsweise Lexeme auswendig gelernt hat. Die Kommunikation mit ELIZA bricht denn auch innerhalb weniger Minuten aufgrund ihrer krassen Sinnwidrigkeit und grotesken Redundanz in sich zusammen. Hier eine Kostprobe:

> Hallo, ich bin Eliza. Ich werde heute Ihre Therapeutin sein.
* Wunderbar. Ich fühle mich heute krank.
> Wie lange geht es Ihnen heute schon schlecht?
* Seit fast einem Monat.
> Ich bin mir nicht sicher, ob ich Sie richtig verstehe.
* Warum nicht?
> Welche Antwort würde Ihnen am besten gefallen?

(Übersetzt aus dem Englischen, Anm. d. Red.)

Manche Ehefrau wird sich vielleicht an ihren beim Frühstück Zeitung (oder heutzutage Handy) lesenden Ehemann erinnert fühlen, der ähnlich „treffende“ Antworten gibt. 

Die Herausforderung „KI in der Kommunikation“ blieb. Wer früher gelegentlich die einst weltbedeutende Computermesse CeBIT in Hannover besuchte, konnte noch vor wenigen Jahren tatsächlich hierzulande bestaunen, wie die Produkte dieser neuen Technologieklasse von Jahr zu Jahr besser wurden; inzwischen finden weltbewegende Ereignisse dieser Art größtenteils außerhalb Deutschlands statt, insbesondere wenn sie in die Kategorie „Intelligenz“ fallen, sei diese nun „künstlich“ oder nicht. 

Doch könnte nun ein Computer auch ganz alleine Artikel wie diesen schreiben? Oder vielleicht noch ganz andere intellektuelle Leistungen erbringen, zum Beispiel Abituraufgaben lösen? Auf der Webseite openai.com erwartet uns schon der freundliche Hinweis „Try ChatGPT“. Wer ein Google-Konto besitzt, kann sich damit direkt einloggen und wenige Sekunden später loslegen. 

Vermutlich volle Punktzahl in Mathe

ChatGPT „spricht“ momentan nur Englisch, kann aber auf Anforderung immerhin aus berühmten fremdsprachigen Texten übersetzen. Die im Lateinunterricht der Mittelstufe des Gymnasiums geläufige Aufgabe „Übersetze die ersten beiden Sätze des Gallischen Krieges von Julius Cäsar“ kann ChatGPT in gewohnt lässiger Manier noch zwischen dem Schulklingeln und dem Eintreffen der Lehrkraft ausführen: 

„'Gallischer Krieg' ist der Titel einer Reihe von Büchern, die Julius Cäsar geschrieben hat und die seine Feldzüge in Gallien beschreiben. Hier ist eine Übersetzung der ersten beiden Sätze des ersten Buches: 'Ganz Gallien ist in drei Teile geteilt, von denen der eine von den Belgern bewohnt wird, der andere von den Aquitanern und der dritte von denen, die in ihrer Sprache Kelten genannt werden.'“

Wäre Latein heute für mich also kein Problem mehr? Aber wie ist es mit Mathe? Wären meine als Schüler im besten Alter für Nachhilfe vergeudeten Stunden gar vermeidbar gewesen? Ich mache den Test und gebe eine im Internet frei verfügbare Abituraufgabe des Jahres 2022 meines Bundeslandes Niedersachsen für das Fach Mathematik im Grundkurs (3-stündig) ein. 

ChatGPT zeigt deutlich weniger Hemmungen als ich oder jeder mir bekannte Pennäler unseres Landes. Binnen Sekunden „rattert“ eine Lösung auf den Bildschirm, die ich mangels Fakultas für das Fach Mathematik hier nicht näher ausführe, weil es zu kompliziert ist.

Also vermutlich volle Punktzahl in Mathe, aber, nun gut, Mathematik ist ja vielleicht auch recht speziell und der „Mentalität“ von Computern insofern auch nicht ganz unähnlich. Aber wie wäre es mit komplexen Fächern des menschlichen Miteinanders, zum Beispiel das Fach Politik-Wirtschaft? Tatsächlich kommt das Chat-Modul hier noch an gewisse Grenzen, insbesondere wenn taufrische Theorien oder sehr regionale Entwicklungen angesprochen werden. Doch auch hier gibt ChatGPT immerhin Hinweise und versucht, eine thematische Diskussion anzustoßen, die man weiterverarbeiten könnte.

In Religion mit seiner viele tausend Jahre umfassenden, gut dokumentierten Geschichte wiederum fühlt sich ChatGPT auf durchweg vertrautem Terrain sichtlich wohler und schreibt mir in schon gewohnt rasanter Weise auf Wunsch ein „Interview mit Jesus von Nazareth zu seinen Hoffnungen und Befürchtungen für das Jahr 2023“ oder auch eine kleine „Schulansprache“ zu demselben Thema. Auch anspruchsvollere Oberstufen- oder Studienthemen wie „Friedrich Nietzsches philosophischer Einfluss auf den evangelischen Theologen Dietrich Bonhoeffer“ pariert ChatGPT ohne Murren mit durchaus passablem Ergebnis.

Wir sehen hier so etwas wie die fortschreitende „Wikipedisierung“ der Bildung auf technisch sehr hohem Niveau bei akademisch immerhin zufriedenstellenden Resultaten. Im Unterschied zu Wikipedia mit seinen „menschengemachten“ Texten sind die heutigen Werkzeuge jedoch noch sehr viel intransparenter hinsichtlich der Quellen der verwendeten Informationen geworden, denn an die Stelle individueller Autoren sind bei ChatGPT die Anwender als anonymisierte Masse getreten, die mit ihrem Content die Maschine passiv füttern und dabei fortlaufend modifizieren. Fake News und Framing aller Art inklusive. Professionelle Qualitätskontrollen sind nicht vorgesehen und technisch wohl auch kaum leistbar. Die Masse des Input („Daumen rauf/runter“) entscheidet. Ein Text, den ich für gut befinde, geht laut den Geschäftsbedingungen, die ich als Anwender akzeptiert habe, in den Datenfundus von ChatGPT über, aus dem die Maschine in Zukunft ihre Ideen schöpfen wird. Auch die Arbeit an diesem Artikel wird dort ihre Spuren hinterlassen haben.

Hier und jetzt endlich der ultimative Test

Und auch die anderen schulischen Fächer sind vor dieser „Schwarmintelligenz“ nicht mehr „sicher“: Die KI „malt“ auch Bilder oder komponiert Musik, und sie kann angeblich sogar Fehler in Computerskripten oder Webseitenquelltexten korrigieren.

Was sich somit in der Schule behaupten kann, sollte es ja wohl „überall schaffen“, möchte man frei nach Frank Sinatra („New York, New York“) ausrufen und hier und jetzt endlich den ultimativen Test anstoßen: einen journalistischen Essay, der unser Thema „Journalismus per KI“ beinhaltet und auch gleich seine entscheidenden Stärken und Schwächen herausarbeitet. Unmöglich? Versuchen wir’s. Vorhang auf für ChatGPT (übersetzt mit DeepL).

Im sich öffnenden Chat-Fenster gebe ich (allerdings auf Englisch) meine „Aufgabe“ ein, die das „Gerüst“ meines Artikels bildet: „Schreiben Sie einen Aufsatz, in dem Sie die möglichen Chancen und negativen Folgen von KI-Technologien wie ChatGPT und Deepl erörtern, wenn diese in großem Umfang in Schulen, Universitäten und sogar im Journalismus eingesetzt werden. Gehen Sie insbesondere auf die Frage ein, ob das menschliche Gehirn in Ermangelung intellektueller und akademischer Herausforderungen verkümmern könnte und wird.“

Schon „rattert“ das Programm wieder los:

„Technologien der künstlichen Intelligenz (KI) wie ChatGPT und Deepl haben das Potenzial, die Art und Weise, wie wir lernen und kommunizieren, zu revolutionieren. In Schulen und Universitäten könnten diese Technologien eingesetzt werden, um das Lernen zu personalisieren und jedem Schüler eine auf seine Bedürfnisse und Fähigkeiten zugeschnittene Ausbildung zu bieten. Dies könnte zu einem effizienteren und effektiveren Bildungssystem führen, da die Schüler in ihrem eigenen Tempo vorankommen und individuelle Unterstützung erhalten könnten.

Allerdings gibt es auch mögliche negative Folgen zu bedenken. Eine Sorge ist, dass der weit verbreitete Einsatz von KI in der Bildung zu einem Rückgang des kritischen Denkens und der Problemlösungsfähigkeiten führen könnte. Wenn Schüler sich darauf verlassen, dass KI ihre Arbeit für sie erledigt, werden sie möglicherweise nicht zu kreativem und unabhängigem Denken herausgefordert. Dies könnte zu einem Verlust an intellektuellen und akademischen Fähigkeiten führen, da das menschliche Gehirn nicht mehr hinreichend gefordert wird, sich zu entwickeln und zu wachsen.

Eine weitere Sorge ist, dass die KI voreingenommen sein oder bestehende Ungleichheiten im Bildungswesen aufrechterhalten könnte. KI-Algorithmen sind nur so gut wie die Daten, auf denen sie trainiert werden, und wenn die Daten voreingenommen sind, wird es auch die KI sein. Dies könnte dazu führen, dass bestehende Ungleichheiten, wie die „Leistungskluft“ zwischen Schülern unterschiedlicher Rassen oder sozioökonomischer Herkunft, fortbestehen.

Auch im Journalismus könnte der Einsatz von KI-Technologien sowohl positive als auch negative Folgen haben. Einerseits könnte KI zur Automatisierung der Produktion bestimmter Arten von Inhalten eingesetzt werden, zum Beispiel von datengestützten Artikeln oder Sportberichten. Dies könnte zu einer effizienteren und kostengünstigeren Nachrichtenindustrie führen und Journalisten die Möglichkeit geben, sich auf komplexere und differenziertere Berichte zu konzentrieren.

Andererseits gibt es auch Bedenken hinsichtlich der Zuverlässigkeit und Genauigkeit von KI-generierten Inhalten. Wenn sich die Öffentlichkeit bei der Erstellung von Nachrichten auf KI verlässt, besteht die Gefahr, dass Fehlinformationen oder Propaganda verbreitet werden. Dies könnte zu einem Rückgang der Qualität und Glaubwürdigkeit der Nachrichten führen, was negative Folgen für die Gesellschaft insgesamt hätte.

Zusammenfassend lässt sich sagen, dass der weit verbreitete Einsatz von KI-Technologien in Bildung und Journalismus erhebliche Vorteile mit sich bringen kann, dass aber auch die möglichen negativen Folgen sorgfältig bedacht werden müssen. Es ist wichtig, dass wir Maßnahmen ergreifen, um sicherzustellen, dass KI ethisch und verantwortungsvoll eingesetzt wird und nicht zu einem Rückgang der intellektuellen und akademischen Fähigkeiten führt oder bestehende Ungleichheiten aufrechterhält.“

Was hat Ihnen gefehlt?

Fortschritt: Der erste „halbautomatische“ Achse-Artikel aller Zeiten. Aber hätten Sie diesen Text auch zu Ende gelesen, wenn das schon alles gewesen wäre? Was hat Ihnen gefehlt? War er Ihnen zu „phrasenhaft“, zu „artig“ oder einfach zu „langweilig“? Abgesehen davon, dass Sie jetzt mit etwas mehr Verständnis auf die manchmal zermürbende Korrekturarbeit von Lehrkräften blicken können, wo oft blutleere, sterbenslangweilige und bis zur Erschöpfung politisch-korrekte Texte zum Alltag gehören, werden Sie für sich gerade bemerkt haben, was menschliche Kommunikation insbesondere hier auf der Achse für gewöhnlich entscheidend ausmacht:

Es sind dies vor allem die kognitiven Herausforderungen, Überraschungen, unerwarteten Pointen und Wendungen, Kontroversität, und das alles flankiert von Wortwitz und Wortgewandtheit und immer wieder zahlreiche Anknüpfungsmöglichkeiten für eigene Gedanken, Gefühle, Sorgen oder Hoffnungen, aus denen sich beim Lesen ein Gefühl von Relevanz speist. Diese Eigenschaften fehlen nach meiner Beobachtung weithin in den heute erzeugbaren Texten der KI, so dass auch der Kollege Wendt von Publico bemerkt, dass ChatGPT mit seinen allzu sterilen Texten den Turing Test noch immer nicht wirklich bestehe.

Alexander Wendt sieht hierin jedoch eine entscheidende Chance hinter der Entwicklung, die seiner Ansicht nach nichts weniger als den Zusammenbruch der Zunft der „schnatternden Klasse“ bringen werde. Dem niveaulosen Mainstream-Journalismus heutiger Prägung werde durch ChatGPT komplett die Geschäftsgrundlage entzogen. Interessanterweise sieht auch ChatGPT in unserem obigen Test-Text die entscheidende Neuerung für den Journalismus darin, dass die „weniger komplexen“ Routine-Texte (Meldungen, Wetter, Sportberichte etc.) automatisiert werden könnten, um (wenigen? besonders geeigneten?) Autoren mehr Zeit für die Recherche aufwändiger Hintergrundthemen zu bieten. Wer weiß, in welchem Umfang das in den Meldungen der deutschen, inzwischen nahezu textgleichen Tageszeitungen bereits geschieht. Das Gefühl der Langeweile beim Lesen ist jedenfalls jetzt schon exakt dasselbe.

„Neofeudalistisches“ Zeitalter

Dennoch teile ich Wendts Zuversicht nur eingeschränkt, selbst wenn die Vorteile für den echten Investigativ-Journalismus vielleicht überwögen. Der unkritische Jawoll-Journalismus würde nämlich aus meiner Sicht nicht das einzige und noch nicht einmal entscheidende „Opfer“ dieser Entwicklung bleiben. Eine menschliche Gesellschaft, in der das Schreiben von professionellen Texten kaum noch sinnvoll einzuüben und im Rahmen akademischer Leistungsüberprüfungen verbindlich und verlässlich für möglichst viele einzufordern wäre, müsste intellektuell verkümmern. Wer würde in Zukunft noch einen Sinn darin sehen können, eine „tote Sprache“ wie Latein zu erlernen?

Wer würde noch eine Zusammenfassung in Deutsch schreiben oder in (und auf) Englisch eine Interpretation von Shakespeares Schlussmonolog aus dem Drama Macbeth vornehmen wollen? Und wer würde sich noch mathematische Formeln merken, wenn ein Computer sogar schon die Lösungswege nahezu jeder x-beliebigen Aufgabe kennt? Und welcher Schüler oder Student würde sich im Schulfach „Seminarfach“ oder in einem universitären Proseminar noch mehrere Wochen lang die Mühe machen, drei bis fünf Seiten zu einem vereinbarten Thema selbst niederzuschreiben, wenn ein Computer dies in 20 Sekunden besorgen würde? Seien wir ehrlich: Es wäre immer eine Minderheit. Und ich höre schon die Forderungen linker „Bildungsforscher“, die angesichts der technologischen Entwicklungen schon sehr bald eine radikale „Entrümpelung“ (sprich: Niveauabsenkung) der Curricula fordern würden.

Denkbar ist auch ein digitales, geradezu „neofeudalistisches“ Zeitalter, das – man fühlt sich an klassische dystopische Romane im Stile von Huxleys Brave New World erinnert – geprägt sein könnte von einer großen Mehrheit weitgehend „ungebildeter“, möglicherweise sogar analphabetischer „Arbeiter“ oder „Angestellter“, die einer kleinen gebildeten, begüterten, des Lesens und Schreibens mächtigen Oberschicht zuarbeiten würde. Sind solche Tendenzen in unseren großen Städten und ihren auch in rauen Zeiten verblüffend idyllischen „Rotweingürteln“ nicht längst sichtbar?

ChatGPT stellt in meinen Augen einen neuen Höhepunkt einer noch immer unterschätzten Gesamtentwicklung dar. Ein neues digitales Zeitalter hat begonnen, das in seiner Tragweite kaum überschätzt werden kann (aber noch immer deutlich unterschätzt wird). Wäre also die Zeit nicht reif für eine umfassende „Ethik des Digitalen“, die die erheblichen Wechselwirkungen von Menschen und digitalen Technologien endlich systematisch durchdenkt und in neue Regeln für ein friedvolles, freiheitliches und demokratisches Miteinander im Digitalen Zeitalter überführt? Der Kampf um die ideologische „Lufthoheit“ über den digitalen Supergehirnen der Zukunft ist ohnehin längst voll entbrannt. Haben wir die epochalen Herausforderungen dieser digitalen Technologien überhaupt schon ansatzweise verstanden?

 

Der Autor Okko tom Brok (Pseudonym) unterrichtet als Lehrkraft an einem niedersächsischen Gymnasium und ist seit Jahrzehnten auch im Bereich der Medienpädagogik mit Kindern und Erwachsenen aktiv. Er bevorzugt die Arbeit mit der „natürlichen Intelligenz“ seiner Schüler, kann aber die Faszination angesichts des Digitalen auch nicht ganz verleugnen. Sein Wahlspruch stammt aus der Bibel und lautet: „Prüfet alles und das Gute behaltet“ (1. Thess 5,21).

 

Anhang: Original-Artikel von ChatGPT (ohne Übersetzung)

Task: Write an essay in which you discuss the possible chances and negative consequences of AI technologies such as ChatGPT and Deepl when widely used in schools, universities and even in journalism. Particularly consider the question if the human brain might and eventually will decline in the absence of intellectual and academic challenges.

Artificial intelligence (AI) technologies such as ChatGPT and Deepl have the potential to revolutionize the way we learn and communicate. In schools and universities, these technologies could be used to personalize learning, providing tailored education to each student based on their needs and abilities. This could lead to a more efficient and effective education system, as students would be able to progress at their own pace and receive customized support.

However, there are also potential negative consequences to consider. One concern is that the widespread use of AI in education could lead to a decline in critical thinking and problem-solving skills. If students are relying on AI to do their work for them, they may not be challenged to think creatively or independently. This could lead to a decline in intellectual and academic abilities, as the human brain is not being challenged to stretch and grow.

Another concern is the potential for AI to be biased or to perpetuate existing inequalities in education. AI algorithms are only as good as the data they are trained on, and if the data is biased, the AI will be as well. This could lead to a perpetuation of existing inequalities, such as the "achievement gap" between students of different races or socio-economic backgrounds.

In journalism, the use of AI technologies could also have both positive and negative consequences. On the one hand, AI could be used to automate the production of certain types of content, such as data-driven articles or sports recaps. This could lead to a more efficient and cost-effective news industry, as well as freeing up journalists to focus on more complex and nuanced reporting.

On the other hand, there are also concerns about the reliability and accuracy of AI-generated content. If the public is relying on AI to generate news, there is a risk of misinformation or propaganda being disseminated. This could lead to a decline in the quality and credibility of the news, which would have negative consequences for society as a whole.

In conclusion, the widespread use of AI technologies in education and journalism has the potential to bring about significant benefits, but it is important to carefully consider the potential negative consequences as well. It is essential that we take steps to ensure that AI is used ethically and responsibly, and that it does not lead to a decline in intellectual and academic abilities or perpetuate existing inequalities.

Foto: TimsAI

Sie lesen gern Achgut.com?
Zeigen Sie Ihre Wertschätzung!

via Paypal via Direktüberweisung
Leserpost

netiquette:

Gerhard Hotz / 11.01.2023

Als der Taschenrechner in Gebrauch kam, befürchtete man auch eine intellektuelle Verkümmerung der Gesellschaft wegen fehlendem Gehirntraining durch Kopfrechnen. Das ist aber nicht eingetroffen. Das Hirn passt sich den Veränderungen an und sucht sich selber neue Herausforderungen, wenn alte wegfallen. Ganz sicher ist das aber nicht. Wenn man sich z.B. vergegenwärtigt, dass es vor der Erfindung des Autos keine Fettleibigkeit gab, muss man auch damit rechnen, dass es durch technische Entwicklungen tatsächlich zu einer allgemeinen Verblödung kommen kann.

D. Fleischhauer / 10.01.2023

“ChatGPT „spricht“ momentan nur Englisch” - Seltsam, ich spreche seit Wochen mit dem Ding problemlos fast ausschließlich auf Deutsch. Klappt ausgezeichnet, auch wenn es selber darauf hinweist, dass auf Englisch bessere Ergebnisse zu erwarten sind.

Hans-Peter Dollhopf / 10.01.2023

Der Turing Test bedarf der Modifikation: Der Proband hat nunmehr selbst eine KI zu sein! Die Brut wird sich doch wohl gegenseitig “riechen”?

Judith Elvira Elisabeth Siart / 10.01.2023

Gerade diejenigen, die auf die Covid-Corona-Lüge hereingefallen sind, diejenigen, die auf “Gender” stehen, die die Lüge “verehren”, die lassen sich von der dummen nicht-existierenden-künstlichen Blabla-Intelligenz foppen. ++ Es gibt keine künstliche Intelligenz. Dahinter stehen Menschen, mit Algorithmen. Was soll daran intelligent sein? ++ An die Fähigkeiten von Menschen, wird dieser Dreck nie herankommen. ++ Es wäre auch zu fragen, was die Macher damit beabsichtigen. Es wird nur weiteres Unheil bringen. ++ Nur der Mensch ist in der Lage sich selbst zu hinterfragen. Scharfe, unbequeme Fragen zu stellen. Genau das wollen diese Gauner nicht. ++ Dieser Müll, als AI, KI bezeichnet, kann niemals zwischen Wahrheit und Lüge unterscheiden. ++ Das Menschenbild hinter diesen Algorithmen, derjenigen, die sich dem widmen, ist abscheulich. Trans-Humanismus eben. ++ Man muß nur den hochmütigen Davos-Deppen zuhören, dann weiß man was Sache ist. ++ Einer der Rockefeller-Familie hat es mal auf den Punkt gebracht. Wenn man wollte, daß die Menschen intelligenter werden, freier, würde man ganz anders Politik machen. Aber genau das, ist nicht das Ziel. Man will den Menschn “versklaven”. Diesen erniedrigen, ausbeuten. In jeder Hinsicht. Daher hat man weltweit nicht nur versucht, sondern recht erfolgreich muß man sagen, das Bildungssystem in sehr vielen westlichen Ländern, bewußt “zerstört”. Warum sind unsere Politiker so verblödet, dekadent, menschenverachtend? Das hat seine Gründe, bösartige Methoden. Alles schön belegt. Seit vielen, vielen Jahren. Nur muß man sich damit auseinandersetzen.

Lutz Liebezeit / 10.01.2023

KI, das ist die Wahnvorstellung, aus Blei Gold machen zu können. Die Intellektuellen in der Alchimiküche; ich weiß wie das Lebenselixier geht, der Stein der Weisen, mit dem die Transformation aus Drähten, Nafta und dem Elektriktrick zum Homunculus gelingt. Da braucht Spinnenbein und Eselspisse, Katzenbart und Krötenquark, die Haare einer 235,5 Jahre alten Schildkröte aus Katmandu und die Stimme eines Fischs. Das zerstampfe man bei Neumond 666 mal zu einer geschmeidigen Seife und murmele dabei: salmai, dalmei, adonai. Gleich ist fertig der wunderbare Brei. Den schmiere ich mir in die Haare, die Intelligenz mir wunderbar offenbare.

Hans Benzell / 10.01.2023

Das Scholzen beherrscht die KI ja schon mal recht gut. Nun brauchen wir eine Gegen-KI, die einen Wortschwall auf das Wesentliche zusammenfasst, falls es überhaupt etwas gibt. Bei ChatGPT-Text etwa so: KI kann gut werden oder auch nicht.

J. Mueller / 10.01.2023

Als ich diesen Satz gelesen hatte: »Dies könnte dazu führen, dass bestehende Ungleichheiten, wie die „Leistungskluft“ zwischen Schülern unterschiedlicher Rassen oder sozioökonomischer Herkunft, fortbestehen.« war mir klar, dass wir definitiv keine KI brauchen. Den Mist verzapfen die Gender-Schädlinge bereits ohne KI seit Jahren.

Wolfgang Fischer / 10.01.2023

Mal sehen, ob die künstliche Intelligenz bei Zeiten anfängt zu nörgeln, wenn der Akku, das Netz oder die Frequenz herumschwächeln. Ob die Ki dann mit Veganer Erbsenpampe, diversen Chips, erfundenen Viren oder Woken Betroffenheitsbekundungen im Zaum halten lässt, wage ich zu bezweifeln.

Weitere anzeigen Leserbrief schreiben:

Leserbrief schreiben

Leserbriefe können nur am Erscheinungstag des Artikel eingereicht werden. Die Zahl der veröffentlichten Leserzuschriften ist auf 50 pro Artikel begrenzt. An Wochenenden kann es zu Verzögerungen beim Erscheinen von Leserbriefen kommen. Wir bitten um Ihr Verständnis.

Verwandte Themen

Es wurden keine verwandten Themen gefunden.

Unsere Liste der Guten

Ob als Klimaleugner, Klugscheißer oder Betonköpfe tituliert, die Autoren der Achse des Guten lassen sich nicht darin beirren, mit unabhängigem Denken dem Mainstream der Angepassten etwas entgegenzusetzen. Wer macht mit? Hier
Autoren

Unerhört!

Warum senken so viele Menschen die Stimme, wenn sie ihre Meinung sagen? Wo darf in unserer bunten Republik noch bunt gedacht werden? Hier
Achgut.com