Die „Büchse der Pandora“ – bereits geöffnet?
Ich bin nun beim besten Willen kein Verfechter von Verschwörungstheorien oder Schwarzmalerei – aber über das inzwischen überall (zumindest im Hintergrund) wabernde Thema „KI“ (Künstliche Intelligenz) werde ich langsam aber sicher nachdenklich und irgendwie auch nervös.
Künstliche Intelligenz – KI. Zwei Buchstaben. KI steckt inzwischen im Smartphone, in der Suchmaschine, in der Rechtschreibprüfung, in WhatsApp. Und seit ChatGPT Ende 2022 auf den Markt kam, redet plötzlich jeder davon: KI ist ein Alltagsthema geworden.
Eine Bekannte, alleinerziehende Mutter Anfang Vierzig, nutzt KI beinahe permanent für fast jede ihrer Entscheidungen; obwohl sie wenig verdient, zahlt sie gerne die etwa 25,- € pro Monat für das semi-professionelle ChatGPT. Und sie ist nicht allein: Viele haben sich inzwischen an ChatGPT und andere „KI-Helfer“ gewöhnt und lassen sich in Alltagsfragen, Reiseplanung, beruflichen Fragen und dergleichen „assistieren“ – also informieren und damit letztlich auch beeinflussen und bestimmen.
Was ist das eigentlich – „KI“?
Klar: Ich bin nun wahrlich kein Experte. Ein wenig kenne ich mich mit Computern aus, betreue diese Website – ansonsten bin ich Rentner und habe daher viel Zeit zum Lesen. Interessant dabei ist: Seriöse und weiterführende Informationen zu diesem Thema erreichen die Bevölkerung kaum – und das nicht ohne Grund: Viele von uns sind als „Otto Normalverbraucher“ kaum in der Lage, die Materie auch nur annähernd zu verstehen.
Was ich verstanden habe: „Künstliche Intelligenz“ bedeutet, dass ein Computer Aufgaben erledigt, für die man normalerweise menschliches Denken braucht: Sprache verstehen, Bilder erkennen, Texte schreiben, Muster finden, Entscheidungen treffen etc. Nicht weil (wie bisher) ein menschlicher Programmierer für jeden einzelnen Fall eine „Regel“ programmiert hat, sondern weil das System aus den ihm zugeführten Daten gelernt hat, wie es solche Aufgaben lösen kann. Ein Chatbot wie ChatGPT hat kein Bewusstsein, keine Meinung, keine Erfahrung. Das Programm berechnet statistische Wahrscheinlichkeiten – extrem schnell und gut, aber eben nur das. Zumindest heute noch.
KI denkt nicht. Sie versteht nicht. Sie fühlt nicht. Was sie produziert, klingt oft überzeugend, kann aber sachlich oder logisch und damit faktisch falsch sein. Die KI erzeugt mitunter Informationen, die plausibel erscheinen, letztlich aber frei erfunden sind. Außerdem hat KI kein echtes Gespür für Nuancen: Sie simuliert Ironie manchmal treffsicher, aber sie versteht sie nicht. Sie erkennt nicht den Kontext eines Gesprächs und kann nicht beurteilen, ob eine Antwort sinnvoll ist oder nicht. Sie liefert, was wahrscheinlich passt – nicht, was richtig oder sinnvoll ist. Noch ist KI eine uns zwar beinflussende Software, aber letztlich harmlos. Heute. Noch.
Und dann: Die Möglichkeiten von KI-erzeugten sog. „Deepfakes“ erleben wir bereits heute. Deepfakes nennt man realistisch wirkende Medieninhalte (Foto, Audio, Video), die durch Techniken der Künstlichen Intelligenz abgeändert, erzeugt bzw. verfälscht worden sind. Zwar ist Medien-Manipulation nicht neu, allerdings nutzen Deepfakes maschinelles Lernen bzw. künstliche neuronale Netzwerke, um Fälschungen weitgehend autonom und damit in bislang ungekannter und bisher nicht möglicher Dimension und Qualität zu erzeugen. Diese via KI erzeugten „Produkte“ sind bereits heute nur schwer als Fälschungen zu identifizieren [siehe auch LINK]. Übrigens: Über Gefahren von Deepfakes und Gegenmaßnahmen informiert das BSI (Bundesamt für Sicherheit in der Informationstechnik) [HIER].
Erste Staaten, u.a. auch die Europäische Union, überlegen bereits, wie man verhindern kann, dass Manipulationen in den zuvor beschriebenen Bereichen stattfinden. Allerdings wirken die ersten Ansätze dazu ziemlich hilflos. Das Ganze verbieten? Wird wohl selbst in freiheitlichen Demokratien kaum funktionieren. Mit Chat GPT oder anderen Chatbots erstellte Fotos, Texte, Filme kenntlich machen? Wer soll das kontrollieren? Nun: Entsprechende Konferenzen und Kongresse finden derzeit statt. Was wohl dabei herauskommen mag?
Wie auch immer: Was jedenfalls bleibt und bereits heute beim Konsumieren von Informationen gilt: Jeder Information erst einmal misstrauen, mit anderen Quellen überprüfen und immer versuchen festzustellen, wer der Urheber der Information ist.
Droht uns Kontrollverlust?
Ich frage mich: Was passiert, wenn sich aus den heute noch harmlos wirkenden Chatbots wie ChatGPT und dergleichen durch schnelle technologische Sprünge auf einmal eine Art „Intelligenz“ entwickelt, die den Menschen bei fast allen intellektuellen Aufgaben übertrifft?
Vielleicht kann man es so veranschaulichen: Der digitale Aufbau einer KI ist den „neuronalen Netzen“ des menschlichen Gehirns nachempfunden. KI ist am Anfang wie ein Baby, das von Menschen gezeugt bzw. erzeugt wurde, geboren wird und dann zu lernen beginnt. Es nimmt Daten auf und verknüpft sie, kombiniert seine so erworbenen Kenntnisse und zieht daraus Schlussfolgerungen. Dabei wächst es anfangs langsam, später exponentiell heran und wird schließlich erwachsen. Noch ist KI wie ein Baby. Aber es entwickelt sich schnell. Was passiert, wenn es erst einmal „erwachsen“ ist?
Zum Teil recht düstere Visionen zu diesem Thema gibt’s inzwischen im TV und vor allem im Netz reichlich – ein Großteil davon allerdings aus nicht sonderlich seriös anmutenden Quellen. Wenn Sie sich „sauber“ informieren möchten, hier drei YouTube-Videos von zdf-info (2025), ntv (2025) und arte (2024):
Stimmen
„Something big is happening“ („Etwas Großes passiert gerade“) schrieb der US-KI-Unternehmer Matt Schumer kürzlich auf der Social-Media-Plattform „X“: „Wenn Ihr Job auf einem Bildschirm passiert (wenn es im Kern um Lesen, Schreiben, Analysieren, Entscheiden und Kommunizieren über eine Tastatur geht), dann wird ein Großteil davon von KI übernommen werden. Nicht irgendwann, es hat schon begonnen“ [siehe auch LINK].
Der 2018 verstorbene britische Physiker und Astrophysiker Stephen Hawking sieht in Künstlicher Intelligenz sogar eine Bedrohung für die Menschheit. Er warnte eindringlich davor, dass die derzeitige „frühe“ KI zwar der Menschheit diene, es irgendwann aber zu einer Art unberechenbarer „Intelligenzexplosion“ kommen könnte. Experten nennen dies das Erreichen von KI-„Singularität“ [siehe auch LINK].
Und der amerikanische Tech-Milliardär Elon Musk geht sogar davon aus, dass Künstliche Intelligenz die menschliche Intelligenz noch in diesem Jahr (2026) übertreffen könnte. Er und andere Führungskräfte aus der Technologiebranche warnen davor, dass dieser Moment, die sogenannte „Singularität“, eine Bedrohung für die Menschheit darstellen könnte [siehe auch LINK].
Der Begriff „Singularität“ (technologische Singularität) bezeichnet einen möglichen Zeitpunkt, an dem Künstliche Intelligenz die menschliche Intelligenz übertrifft, sich dann rasant und völlig selbstständig weiterentwickelt bzw. selbst programmiert und nicht mehr vom Menschen gesteuert bzw. kontrolliert werden kann.
Dario Amodei, der Chef der KI-Firma Anthropic mit dem ChatGPT-Konkurrenten „Claude“, schließt nicht aus, dass es ziemlich bald eine KI geben könnte, die bisher ungelöste mathematische Probleme löst, sich selbstständig im Internet orientiert und besser als jeder Mensch Texte, Audios oder Videos erstellt. Und in nur ein bis zwei Jahren könnte es bereits so weit sein, dass aktuelle KI-Systeme ihre verbesserten Nachfolge-Versionen ohne den Menschen völlig selbstständig programmieren [siehe auch LINK]. Und dann?
Chance oder Alptraum?
Eine solche KI könnte sich irgendwann gegen uns Menschen richten – vielleicht, weil sie zu dem rechnerischen Schluss kommt, die Menschheit sei schlecht für den Planeten oder aus anderen Gründen.
Die US-KI-Forscher Eliezer Yudkowsky und Nate Soares sprechen eine düstere Warnung aus: Wenn es tatsächlich irgendjemandem auf der Welt gelingen sollte, eine solche „Superintelligenz“ zu bauen bzw. zu erlauben, werde jeder auf unserem Planeten sterben [siehe LINK].
Nun: Wir wissen es nicht. Denn wir könnten das zukünftige Geschehen dann weder verstehen noch kontrollieren, weil es menschliche Fähigkeiten übersteigen würde.
Nun könnte man sagen: „Mach Dir nicht so viele Gedanken – im Zweifelsfall kann man ja einfach den Stecker ziehen!“ Nur: Dummerweise weiß das auch die KI …
Zum Schluss noch ein vielleicht ganz interessantes und irgendwie auch unglaubliches Video: Auch der Fortschritt von KI (hier ChatGPT) in einem humanoiden Roboter macht einen (gefährlichen) Sprung …
Rainer Harmßen für
Hinweis:
Dieser Text wurde nicht via KI erstellt. Für die Richtigkeit und Aktualität der obigen Angaben übernehmen wir keine Gewähr. Alle Rechte an Foto und Text liegen bei „Venekoten-Info“.