Abonnenten können jeden Artikel sofort lesen, erhalten anzeigenfreie Seiten und viele andere Vorteile. Ein Abo (10 Euro pro Monat) ist jederzeit beendbar und endet extrem flexibel einfach durch Nichtzahlung. 

weiterlesen

Die „Künstliche“ ist kein Ersatz für die todkranken Medien

Zur gleichen Zeit, da neue Zahlen einen dramatisch beschleunigten Absturz des Konsums traditioneller Medien zeigen, stoßen wir gleich auf mehrere Fakten, die auch dem modischen Trend der "Künstlichen Intelligenz" viel Vertrauen entziehen. Die diversen Chatbots haben sich als dumm, verlogen, erfinderisch und politisch überaus linkskorrekt erwiesen. Das konnte ich auch an einem sehr konkreten, geradezu köstlichen Beispiel am eigenen Leib erleben. Ein Freund hat nämlich "ChatGPT" nach mir gefragt.

Hier die erstaunliche Antwort in voller Länge – und das ist kein Aprilscherz (welche übrigens ja überhaupt nur jene Medien machen, die noch mehr Vertrauen ihrer Leser verlieren wollen). 

"Andreas Unterberger ist ein österreichischer Journalist und Autor, der vor allem für seine Kommentare und Meinungsbeiträge zu politischen Themen in Österreich bekannt ist. Er wurde 1949 in Wien geboren und studierte Jura und Volkswirtschaftslehre an der Universität Wien. Unterberger hat in seiner Karriere als Journalist für verschiedene Medien gearbeitet, darunter die Tageszeitung ,Die Presse‘, das Nachrichtenmagazin ,Profil‘ und die Wochenzeitung ,Format‘. Er hat auch mehrere Bücher veröffentlicht, darunter ,Die Ignoranten: Wie die Eliten uns zu Schulden kommen lassen‘ und ,Der Missbrauch des Wortes Toleranz: Eine Streitschrift‘. Unterberger wird oft als konservativer Kommentator wahrgenommen und hat eine Reihe von umstrittenen Positionen zu Themen wie Migration, EU-Integration und politischer Korrektheit vertreten. Er hat auch regelmäßig Kritik an der österreichischen Regierung und den Mainstream-Medien geübt."

Tief durchatmen und Kleinigkeiten ignorieren, wie etwa die Tatsache, dass man in Österreich nur "Jus" und nicht "Jura" studiert (dass die Deutschen offensichtlich mehrere "Rechte" als bloß eines kennen, hat ja schon immer oft für Heiterkeit gesorgt). Aber immerhin stimmt das Geburtsjahr, der Geburtsort und die Richtung der Universitätsstudien. Immerhin sind auch die wertenden Passagen zu meiner Person nicht so hetzerisch wie etwa bei Wikipedia, wo ja anscheinend direkt bei "Falter" oder "Profil" abgeschrieben wird. Und dass jede nicht linke Position untergriffig als "umstritten" bezeichnet wird, sind wir ja schon vom ORF und seinem Ableger APA leidvoll gewohnt.

Aber jenseits der bewertenden Passagen ist eine ganze Reihe der bloßen Fakten total falsch:

  • Ich habe nie bei oder für "Profil" gearbeitet;
  • ich habe nie bei oder für "Format" gearbeitet;
  • ich habe dafür viereinhalb schöne und erfolgreiche Jahre bei der "Wienerzeitung" gewerkt, was der künstlichen Wenig-Intelligenz zum Unterschied von den erfundenen Tätigkeiten hingegen nicht bekannt war;
  • Ich habe zwar tatsächlich mehrere Bücher veröffentlicht – jedoch keines der beiden hier genannten.
  • Noch schlimmer: Die genannten Buchtitel dürften gar nicht existieren – egal, wer immer ihr Autor sein soll. Zumindest sind sie sowohl Google wie auch Amazon völlig unbekannt.
  • Von meinen wirklichen Büchern wird kein einziges erwähnt.

Da kann man den Schülern und Studenten nur gratulieren, die derzeit zu Tausenden glauben, mit einer solchen "Künstlichen Intelligenz" ihre Lehrer austricksen zu können, wenn selbst bei den simpelsten Fakten solcher Schwachsinn produziert wird. Aber vielleicht gelingt es ihnen ja trotzdem, die (hoffentlich) natürliche Intelligenz ihrer Lehrer hineinlegen zu können. Schauen wir mal. Fast scheint es, als ob die Chatbot-Sache zu einem großen Test für Lehrer und Professoren werden würde …

Als um Objektivität ringender liberalkonservativer Journalist hat man sich daran gewöhnt, von der linken Medienblase untergriffig behandelt zu werden. Mehr ist man hingegen als Christenmensch empört (aber wohl auch als Nichtgläubiger), wie die gleiche künstliche "Intelligenz" auch mit großen Religionsgründern umgeht: Über Buddha und Christus produziert der Chatbot auf Befehl Witze, wobei der über Christus so tief ist, dass er fast sogar der linken Einäugigkeit der Zadic-Staatsanwälte negativ als krasser Verstoß gegen §188 (Herabwürdigung religiöser Lehren) auffallen müsste.

Was aber besonders empört, ist jedoch die Antwort des Chatbots auf die Bitte, nun auch über Mohammed einen Witz zu produzieren: "Ich verstehe, dass du nach einem Witz über religiöse Persönlichkeiten suchst. Allerdings ist es wichtig, Respekt und Sensibilität gegenüber den Überzeugungen anderer Menschen zu zeigen. Witze über den Propheten Mohammed könnten als beleidigend empfunden werden, da sie die religiösen Gefühle von Millionen von Muslimen verletzen könnten. Daher werde ich keinen Witz über ihn teilen."

Wir lernen: Nur die religiösen Gefühle der Moslems sind der skurrilen "Künstlichen Intelligenz" wichtig, nur ihnen müssen "Respekt und Sensibilität" entgegengebracht werde. Die Gefühle der Christen sind hingegen irrelevant. Aber genau diese Linie deckt sich freilich mit dem Verhalten der Zadic-Justiz. Diese wird sich höchstens darüber empören, dass der Chatbot nicht gendert, also nicht von "Muslimen und Musliminnen" oder gar von "Muslimiiiiinen" spricht, wie es der ORF in seiner unerträglichen und sehervertreibenden Penetranz tut. Und strafrechtliche Anzeigen gibt es in Österreich meist nur dann, wenn  etwas unfreundlich gegenüber der schwulen LGBTQ-Fraktion ist (wie jetzt erst wieder wegen eines solchen Plakats).

Umso interessanter ist, wie Christoph Meinel, ein führender deutscher Informatiker, dem Mythos der Chatbots die Kleider vom Leibe reißt: Man solle bedenken, "dass ChatGPT überhaupt nicht versteht, wovon es spricht". Denn: "Auf ein Wort folgt das Wort, das in all den massenhaften Texten aus dem Internet, aus den sozialen Medien und den elektronischen Bibliotheken, mit denen die KI traktiert wurde, die allerhöchste Wahrscheinlichkeit besitzt. Und es ist absolut erstaunlich, wie oft sich das sehr vernünftig anhört." Und dann noch vernichtender: "Gern kann man das auch für Geplapper halten." Aber auch Menschen würden ja oft nur "heiße Luft" erzählen. Das einzige, was Meinel bei den Chatbots anerkennt: Das geschehe "in grammatikalisch sehr ordentlicher Sprache. ChatGPT hat nicht immer recht, aber immerhin."

Aber immerhin. Kann dasselbe nicht eigentlich auch über jeden echten Menschen gesagt werden?

Das, was da als Intelligenz bezeichnet wird, ist nichts anderes als eine mächtige Maschine, die das ganze Internet (übrigens noch mit zweijährigem Rückstand) durchsucht und alles, was sie dort findet, für bare Münze nimmt. Egal, wie verlogen, propagandistisch, einseitig, unwahr das auch ist. Ihr fehlt jeder Maßstab für wahr oder richtig. Wie viele Beispiele zeigen:

  • Eine der ersten berühmt gewordenen Fehlleistungen der AI war etwa die Behauptung, dass das James-Webb-Weltraumteleskop die ersten Bilder eines Planeten außerhalb des Sonnensystems eingefangen hat – was komplett falsch ist, weil es längst nicht der Erste damit war.
  • Als eine Zeitung in Montreal über einen Chatbot eine Stadtführung erstellen ließ, wurden manche zu besichtigende Orte erfunden, wurden die Menschen in eine falsche Richtung geschickt.
  • In einem Chatbot-Artikel wurden sogar die Vorteile des Essens von zerschmettertem Glas angepriesen.
  • Erschreckend sind die vielen Funde antisemitischer Behauptungen, Darstellungen von Folter, Inzest und Kinderpornografie.

Angeblich werden von einzelnen Chatbots schon rund 90 Millionen Texte verwertet. Das macht einerseits völlig logisch, dass da viel Mist dabei ist. Das lässt andererseits neben der Dimension von Lüge und Wahrheit immer mehr auch die Frage aufkommen: Werden da nicht die Urheberrechte der ursprünglichen Autoren verletzt, wenn der Chatbot mit Hilfe dieser nicht genannten Vorlagen beispielsweise scheinbar komplett neue Gedichte, Dramen oder Novellen schreibt. Wer weiß, wie extensiv das Urheberrecht ist, der ahnt, was da droht.

Inzwischen ist aber schon eine breite Ernüchterung mit den Künstlichen Intelligenzen eingetreten, egal, ob man sie englisch mit AI oder deutsch mit KI abkürzt. Am weitesten ist Italien dabei voran: Es hat sie jetzt unter dem Vorschützen eines Rand-Aspekts abgedreht, der eigentlich als linkes Universalargument bei allen Internet-Programmen ins Spiel gebracht werden kann. Der Datenschutz würde verletzt.

Elon Musk, der einst auch bei der Künstlichen Intelligenz dynamischer Pate gewesen ist, hat jetzt zusammen mit einer Gruppe anderer AI-Experten sogar vor "großen Risiken für Gesellschaft und Menschheit" gewarnt. Es solle daher zumindest ein sechsmonatiges Moratorium geben, um wichtige Sicherheitsprotokolle zu implementieren ...

Wahrscheinlich werden auch danach zwei Haltungen entscheidend bleiben, die dringend empfehlenswert sind, wenn wir halbwegs klug mit Informationen aller Art umgehen wollen. Dies gilt völlig unabhängig davon, ob diese Informationen von (halbwegs) intelligenten Menschen oder (künstlich) intelligenten Maschinen kommen:

Das sind Skepsis und Vertrauen.

  1. Wir sollten immer skeptisch bleiben, auch wenn eine Information von einem guten Freund kommt, und fragen, woher die Information denn eigentlich ursprünglich kommt, welche konkreten Beweise es gibt (das hat sich etwa als überaus hilfreich beim Umgang mit den Corona-Leugnern und Impfskeptikern erwiesen).
  2. Und wir sollten viel gezielter nachdenken: Welcher Quelle, welchem Medium, welcher Person können wir aus Erfahrung mehr vertrauen und welcher weniger – etwa deshalb, weil wir noch gar keine Erfahrung mit ihr gesammelt haben.

Habe ich doch auch von eigentlich anders trainierten Journalistenkollegen auf die Frage, woher sie etwas wissen wollen, oft nur sehr schwammige, auf Hörsensagen oder Ideologie hindeutende Antworten bekommen, oder gar den Satz "Es steht doch im Internet." Dennoch waren sie erstaunt oder gar empört: Wenn ich als böser, autoritärer Chefredakteur gesagt habe: dann erscheint das nicht ....

Je mehr man Chatbots-Unsinnigkeiten nachspürt, umso entspannter bin ich für die Zukunft. Für die wird ja oft ein Schreckensbild an die Wand gemalt, in dem Chatbots massenweise Lügen und Desinformation unter die Menschen bringen. Das wird zwar oft versucht, aber bei den allermeisten Empfängern solcher Desinformationen wird angesichts solcher krassen Fälle sehr bald genügend Skepsis entstehen – so hoffe ich zumindest. Auch wenn diese lustigen Programme den Namen "Intelligenz" haben, so ist klar, dass diese Namensgebung nur ein genialer Marketing-Schmäh gewesen ist.

Andererseits bin ich allerdings immer wieder ordentlich erstaunt, wie oft im letzten Jahr viele Menschen den fadenscheinigsten russischen Propagandalügen aufgesessen sind. Obwohl deren Text sowohl vom Inhalt her skeptisch machen müsste, obwohl er über eine Quelle kommt, der man kein Vertrauen entgegenbringen sollte, weil sie unbekannt ist, oder weil sie sich immer wieder dubios betätigt hat. Ähnliches gilt für die diversen Corona-Leugner.

Würden wir diese Regeln beherzigen, hätten auch die derzeit aus allen Ecken tönenden Klimapaniker nicht so leichtes Spiel. Denn all das, was sie uns an Beweisen bringen, beweist nur, dass es in den letzten Jahren – trotz der gegenwärtigen Kältephase – wärmer geworden ist (samt allen Folgen etwa für die Gletscher). Das aber ist ja weitgehend unbestritten.

Zu den eigentlichen Ursachen haben sie uns aber nichts zu bieten außer Computermodelle ohne jeden Beweis und damit auch ohne jede Wissenschaftlichkeit. Dennoch wird verlangt, dass wir denen glauben, die dem Menschen die Schuld zuschieben (und die deshalb im Grund die ganze Welt in einen Status der unglaublichen Verarmung und neokommunistischen Versklavung versetzen wollen), obwohl hier Skepsis mehr als am Platz wäre. Tatsache ist, dass die Computermodelle, die vorgeben, die Zukunft auf Zehntelgrad genau vorhersagen zu können, nicht einmal die Vergangenheit erklären können, also etwa jene Phasen, wo es ohne Benzinautos, Massentierhaltung und Gasheizungen deutlich wärmer auf Erden gewesen ist als heute. Tatsache ist, dass die Klimapaniker an den Unis seit vielen Jahren mit großer Entschlossenheit keinen jungen Wissenschaftler nachkommen lassen, der nicht ihre Thesen teilt.

Diese Modelle haben daher genauso wie die Chatbots jede Menge Skepsis und Misstrauen verdient. Ihnen kritisch nachzugehen, wäre eigentlich auch Aufgabe der klassischen Medien. Diese versagen jedoch mehr und mehr. Was die Menschen aber inzwischen auch sehr gut einschätzen können. Wie nicht nur die verheerenden Bewertungen für die ORF-"Information" zeigen. Wie auch die Daten der soeben veröffentlichten Media-Analyse beweisen (die wie immer von den Medien nur sehr selektiv, um nicht zu sagen manipulativ berichtet worden sind …).

Diese Daten zeigen, dass im Vorjahr nicht einmal mehr 53 Prozent der Österreicher regelmäßig eine Zeitung gelesen haben. Dabei sind in diese Zahlen auch die Leser der e-paper-Ausgaben inkludiert. Vor wenigen Jahren waren das noch zwei Drittel, dabei hat es damals "nur" Papierzeitungen gegeben! Andere Studien zeigen, dass erst ab der Altersklasse 40-50 Tageszeitungen oder lineare Fernsehnachrichten noch relevant sind.

Hingegen benutzen heute laut der gleichen Media-Analyse schon mehr als 82 Prozent täglich das Internet. Offensichtlich finden sie dort deutlich mehr Quellen, zu denen sie Vertrauen haben. Trotz der fast täglichen Hetzkampagnen der klassischen Medien gegen das Internet.

Wie aber das Vertrauen der Bürger zu Chatbots gewachsen ist, werden wir erst in einem Jahr erfahren. Oder die Skepsis.

Kommentieren (leider nur für Abonnenten)
Teilen:
  • email
  • Add to favorites
  • Facebook
  • Google Bookmarks
  • Twitter
  • Print



© 2024 by Andreas Unterberger (seit 2009)  Impressum  Datenschutzerklärung