2
Gastkommentare

Wie die westliche Welt die KI-Bedrohung verschläft

11. November 2025 18:08 | Autor: Karl-Peter Schwarz
2 Kommentare

Im Mai 2023 verabschiedete sich der britisch-kanadische AI-Pionier Geoffrey Everest Hinton vom Tech-Giganten Google, für den er mehr als zehn Jahre lang gearbeitet hatte. In der "New York Times" warnte der 75 Jahre alte Nobelpreisträger für Physik vor der Entwicklung der AI-gestützten Chatbot-Technologie, die maßgeblich auf seinen Forschungen zu neuralen Netzwerken beruht. Er bedauere es, das herbeigeführt zu haben, nur der Gedanke tröste ihn, dass es sonst jemand anderer getan hätte. 

Die Menschen, sagte Hinton, würden im Internet schon jetzt so sehr mit falschen Fotos, Videos und Texten überflutet werden, dass sie kaum noch in der Lage wären, zwischen richtig und falsch zu unterscheiden. Noch weit schlimmere Gefahren drohten durch den massiven Abbau von Arbeitsplätzen und die Automatisierung der Kriegführung. Früher habe er gedacht, dass es noch 30 bis 50 Jahre dauern würde, bis die AI klüger sein würde als der Mensch, aber das glaube er nicht mehr. Es sei höchste Zeit, diese Technologie zu kontrollieren, statt sie weiterzuentwickeln.

Wie Hinton forderten Elon Musk, Stuart Russel, Steve Wozniak und weitere tausend Tech-Forscher und -Manager, das Training hocheffizienter AI-Systeme wenigstens sechs Monate lang zu unterbrechen. "Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable ", heißt es in dem offenen Brief. "If such a pause cannot be enacted quickly, governments should step in and institute a moratorium. "

Die mittlerweile rund 34.000 Unterzeichner des offenen Briefs befürchten, dass die AI durch maschinelles Lernen eine Stufe der Superintelligenz erreichen wird, auf der sie die kognitiven Leistungen des Menschen in praktisch allen relevanten Bereichen übertrifft, was sie dazu befähigen würde, die Menschheit zu beherrschen. Es ist umstritten, ob eine Denkmaschine je fähig sein wird, nicht nur ihre Methoden, sondern auch ihren Zweck selbst zu definieren, was ein Alleinstellungsmerkmal humaner Intelligenz ist. Zwei unterschiedliche Mythologien seien hier am Werk, kritisierte Kate Crawford, nämlich erstens die Annahme, dass nicht-menschliche Systeme sich analog zum menschlichen Geist verhielten, und zweitens, dass Intelligenz nicht von Gesellschaft, Kultur und Geschichte konditioniert wäre.

Ungeachtet aller Warnungen legten die Tech-Giganten auf ihrem Weg zur Superintelligence nicht nur keine Pause ein, sondern erhöhten das Tempo, was angesichts des harten Konkurrenzkampfes kein Wunder ist. Einen verpflichtenden internationalen Rechtsrahmen, der Forschungen auf diesem Gebiet Fesseln anlegen würde, gibt es nicht. 

Weitgehend Einigkeit besteht darüber, dass der AI eine außergewöhnliche transformative Kraft eignet, die mit dem Übergang von Jägern und Sammlern zu sesshaften Bauern und Viehzüchtern, mit der Erfindung des Buchdrucks, der Dampfmaschine und anderen Innovationen verglichen wird – alles Neuerungen, von denen man ebenfalls nicht ahnen konnte, welche gewaltigen Folgen sie auf den verschiedensten Gebieten zeitigen würden. Zwar weiß man, dass die AI die Welt transformieren wird, und man kann mit einiger Treffsicherheit vermuten, was sie in absehbarer Zeit verändern wird, aber gegenüber mittel- oder langfristigen Prognosen ist größte Vorsicht angebracht.

Die bereits beobachtbaren Veränderungen sind dramatisch genug. Hintons Befürchtung, dass die Leute nicht mehr in der Lage wären, zwischen richtig und falsch zu unterscheiden, bestätigt sich tagtäglich. Ein im August 2025 veröffentlichter NewsGuard-Report widerlegt die Hypothese, dass generative KI-Tools falsche Behauptungen in den sozialen Medien erkennen und korrigieren würden. Im Gegenteil habe sich die Wahrscheinlichkeit, dass sie falsche Informationen zu aktuellen Nachrichten liefern, binnen eines Jahres nahezu verdoppelt. Inzwischen enthielten 35 Prozent ihrer Antworten Falschbehauptungen, während die Quote der Nicht-Antworten von 31 Prozent im August 2024 auf null Prozent zurückging.

Statt auf Wissensgrenzen zu verweisen, verbreiteten die Systeme selbst zunehmend falsche Nachrichten. Massenhaft speisen Desinformationsakteure "falsche Inhalte über unbedeutende Webseiten, Social-Media-Posts oder KI-generierte Content-Farmen ein – Quellen, die Chatbots nicht von seriösen Medien unterscheiden können. So hat der Druck, Chatbots aktueller und auskunftsfreudiger zu machen, unbeabsichtigt dazu geführt, dass sie anfälliger für Propaganda sind."

Mit Hilfe der AI bekommen Desinformationsspezialisten mit verhältnismäßig wenig Aufwand und geringen Kosten einen Grad an Wirksamkeit, den sie mit den klassischen Medien der Propaganda wie Rundfunk, TV und Print mit wesentlich höheren Investitionen nicht erreichen könnten: Die Grenze zwischen richtig und falsch löst sich auf, nichts mehr gilt als sicher, das Vertrauen in die freiheitliche Ordnung schwindet und in der Folge festigt sich die Meinungsführerschaft von links- und rechtsextremen Akteuren. Auf diese Weise wird die AI zu einem wirkungsvollen Instrument von totalitären Regimen und nicht-staatlichen Akteuren, die es darauf abgesehen haben, die Verteidigungsbereitschaft der demokratischen Staaten zu schwächen und Unterstützung für ihre Ziele zu erhalten. 

Schon der auf Stalin zurückgehende Begriff der "Desinformation" verweist auf asymmetrische Kriegsführung. Die Sowjetunion kompensierte ihren ökonomischen und militärischen Rückstand gegenüber den USA durch ihre Überlegenheit im Schattenkrieg der Agenten und der Irreführung der öffentlichen Meinung in den westlichen Ländern. Im Georgien-Krieg 2008 und insbesondere im Ukraine-Krieg erweiterte und perfektionierte Russland seine Desinformationsstrategie im industriellen Maßstab. 2013 baute der Wagner-Gründer Jewgeni Prigoschin in St. Petersburg die Internet Research Agency (IRA) auf, die seit der Annexion der Krim die sozialen Netzwerke mit Bots, Trollen, gefälschten Websites und vorgeblichen Experten überflutet, um die russischen Narrative der Bedrohung Russlands durch die Nato und die Ukraine zu verbreiten. Je öfter solche Fakenews verbreitet werden, desto stärker prägen sie sich ein.

Der russischen Regierung, heißt es in einem Bericht an den US-Kongress vom Jänner 2025, komme es darauf an, "das Vertrauen in die demokratischen Institutionen der USA zu untergraben, die gesellschaftspolitischen Spaltungen in den Vereinigten Staaten zu verschärfen und die westliche Unterstützung für die Ukraine zu schwächen." Alle russischen Auslandsgeheimdienste verfügen über Cyber-Einheiten, die eine Vielzahl von Spionage-, Sabotage- und Desinformationsoperationen durchführen. Ihr Schattenkrieg ist Teil der hybriden Kriegsführung Russlands, die darauf abzielt, den Westen durch konventionelle und unkonventionellen Taktiken anzugreifen, ohne das Risiko eines umfassenden Kriegs einzugehen.

Mit Hilfe der AI lassen sich solche Operationen mitunter sogar mit dem Bürocomputer durchführen, ohne sich physisch exponieren zu müssen. Nach den Erkenntnissen der deutschen Nachrichtendienste engagiert Moskau über Internetkanäle wie Telegram junge, prorussisch eingestellte Deutsche für Brandanschläge und Sabotageakte. Die russischen und chinesischen Geheimdienste haben die kritische Infrastruktur in Deutschland so gut ausgespäht, dass sie in der Lage wären, das Internet, die Stromversorgung oder den Bahnverkehr lahmzulegen. Gegenüber den Streitkräften und Nachrichtendiensten der westlichen Welt haben die Schattenkrieger der autoritären und totalitären Staaten den Vorteil, dass sie sich um rechtsstaatliche Beschränkungen, zum Beispiel durch parlamentarische Kontrollgremien, nicht kümmern müssen.

Im globalen Wettstreit auf dem Gebiet der AI liegen die USA und China weit vor allen anderen Akteuren und setzen sie damit ökonomisch wie sicherheitspolitisch unter Druck. China hat massiv in Forschung, Entwicklung und Infrastruktur investiert, um KI-gesteuerte Branchen zu unterstützen. Die USA reagieren mit Handelsbeschränkungen, Exportkontrollen und Zöllen gegen, um ihre führende Rolle zu behaupten und Chinas Zugang zu wichtigen KI-bezogenen Technologien einzuschränken. Mehrere chinesischer KI-Unternehmen stehen aus Gründen der nationalen Sicherheit auf einer schwarzen Liste.

Der Palantir-Gründer Alexander C. Karp, dessen Einnahmen größtenteils aus Regierungsaufträgen für Datenüberwachung und die militärische Anwendung künstlicher Intelligenz stammen, glaubt nicht, dass es damit getan sei. Amerika brauche eine geistige Erneuerung, um bestehen zu können. Karp wirft den Software-Giganten des Silicon Valley vor, sich auf Software für den privaten Konsum zu konzentrieren, statt jene Mittel bereitzustellen, die zur glaubwürdigen Abschreckung nötig sind. Aber auch der US-Administration fehle es an Einsicht in die Notwendigkeiten, sicherheitspolitisch mit den neuen Technologien Schritt zu halten. Für das Jahr 2024 habe das amerikanische Verteidigungsministerium 1,8 Milliarden Dollar für Forschung und Entwicklung der AI beantragt, was lediglich 0,2 Prozent des Verteidigungsbudgets (886 Milliarden) entspreche. 

Indes hat sich gezeigt, dass die Nato trotz ihrer Hochrüstung mit modernsten Waffen nicht in der Lage ist, einen Angriff durch Drohnen adäquat abzuwehren. In der Nacht zum 10. September überflog zum ersten Mal ein Schwarm von 19 russischen Kamikaze-Drohnen das Territorium des Nato-Staats Polen. Polnischen und niederländischen Kampfjets gelang es mit Hilfe eines italienisches Aufklärungsflugzeugs und zwei deutschen Patriot-Flugabwehrsystemen gerade mal vier von ihnen abzuschießen – ein gewaltiger, sündteurer Aufwand, um mit einer Bedrohung fertigzuwerden, der die Ukrainer seit der russischen Invasion im Februar 2022 tagtäglich ausgesetzt sind. In einer einzigen Nacht hat Russland am 7. September mehr als 800 Kampfdrohnen und 13 Raketen eingesetzt, von denen die ukrainischen Streitkräfte 747 Drohnen und vier Marschflugkörper abfangen konnten, es war der bisher größte Drohnenangriff in der Geschichte überhaupt. Im russisch-ukrainischen Krieg werden 70-80 Prozent der täglichen Kampfverluste auf beiden Seiten durch Drohnen verursacht, und doch sieht es ganz so aus, als hätte die Nato den Beginn der neuen Epoche in der Kriegführung verschlafen.

Im März 2020 kam im libyschen Bürgerkrieg zum ersten Mal ein Killer-Roboter zum Einsatz, eine autonome Drohne, die selbstständig ihre Ziele ansteuern und töten kann. Es handelte sich um eine Kargu-2 aus türkischer Produktion, die sowohl manuell als auch automatisch betrieben werden kann. Afrikanische Länder setzten solche Drohnen gegen Aufständische ein. Die Türkei und Indien, aber auch andere Länder des globalen Südens sprechen sich gegen eine Einschränkung oder Regulierung von LAWS (lethal autonomous weapons system) aus.

Für die gezielte Tötung von Terroristen setzt Israel die Database Lavender ein, die unter den rund 2,3 Millionen Einwohnern des Gazastreifens mit Hilfe von AI-Zielerfassungssystemen Zehntausende Mitglieder der Hamas und anderer palästinensischer Gruppen identifiziert hat. Solche Systeme werden anhand von Daten trainiert, die unter anderem Geschlecht, Alter, Aussehen, Bewegungsmuster, Aktivitäten in sozialen Netzwerken umfassen.

Während in der EU heftig über Datenhoheit und informationelle Selbstbestimmung gestritten wird, ist der "gläserne Mensch" längst Realität. Abgesehen davon, dass die Benutzung jeder App Datenspuren hinterlässt und viele Nutzer freiwillig sensible Daten preisgeben, ermöglicht schon die Analyse von Bewegungsdaten aus Smartphone-Sensoren (Accelerometer, Gyroskop, Magnetometer) die treffsichere Identifizierung von Personen. Militär, Polizei und Nachrichtendienste können nicht darauf verzichten, sich dafür geeignete Software zu beschaffen. 

Szenarien:

1) Die Weiterentwicklung der AI-Technologie lässt sich nicht aufhalten. Staaten wie die Vereinigten Staaten und China, die über Knowhow und Rechenleistung verfügen, werden ihren ökonomischen und militärischen Vorsprung gegenüber kleineren Staaten ausbauen, besonders gegenüber jenen des globalen Südens.

2) Es ist unwahrscheinlich, dass sich Forschung und Herstellung autonomer Waffensysteme durch internationale Abkommen aufhalten lassen. Die AI-Technologie kommt den militärischen Ambitionen kleiner und mittelgroßer Staaten entgegen.

3) Auch die westlichen Demokratien werden die technischen Möglichkeiten der Überwachung nützen, die ihnen die AI zur Verfügung stellt.

 

Karl-Peter Schwarz ist Autor und Journalist; er war früher bei "Presse", ORF und FAZ tätig.

Teilen:
  • email
  • Facebook
  • Google Bookmarks
  • Twitter

  1. Leo Dorner
    12. November 2025 18:26

    Ich habe noch keine Zeit gefunden, Ihren Artikel zu lesen, aber nachdem die bisherigen mehr als überzeugend waren, wird auch dieser Text viele interessante Aspekte gründlich erörtern. Nur ein Bedenken ist mir vorweg aufgefallen: Eine Bedrohung durch KI ist in vielfacher Hinsicht allerdings Tatsache, aber in anderer Hinsicht wird KI in vielen Verwaltungsberufen, auch im Bank- und Lagerbestandswesen usf., als Bereicherung erfahren: In unseren Dateigebirgen läßt sich mit KI-Programmen vermutlich sogar eine (digitale) Stecknadel finden.
    Auf „Breitbart“ lese ich soeben, daß ein überaus populärer Country-Song in mit den USA mit KI – „generiert“ wurde. Ein Liedlein, daß gewiss schon Millionen (der heutigen) Menschheit mit Wonne nachgeträllert haben, steht nun am Pranger. Wird dadurch der Spaß der Nachträllernden als „illegal“ abqualifiziert?



    • Leo Dorner
      12. November 2025 18:27

      Schade, daß wir die Schlager, die beispielsweise im Odeon von Argos viele Tausende Griechen (durch Jahrhunderte) begeisterten, nicht mehr adäquat rekonstruieren können. Obwohl Geschmacksvergleiche immer im Keller von Gusto und Ohrfeige enden. Ich möchte auch nicht entscheiden, ob in Frau Taylors heißgeliebten Songs mehr Gusto oder mehre Ohrfeige steckt, und dies gilt auch für das Schaffen vom Hansi aus Kitzbühel.






Zwischen Lügenpresse und Fake News: Eine Analyse orf-watch.at Schafft die Politik ab Europa 2030 Börsen-Kurier (Bezahlte Anzeige) Academia kathtreff.org