Zum Inhalt

Was KI kann

Was KI kann – und was nicht

KI ist nicht gleich Sprachmodell

Bevor wir anfangen, eine wichtige Klarstellung – für alle, die sich im Thema auskennen, und als Orientierung für alle, die es noch nicht tun.

„Künstliche Intelligenz" ist ein Oberbegriff für ein breites Feld: Bilderkennung, autonomes Fahren, Schachprogramme, Betrugserkennung bei Kreditkartentransaktionen, medizinische Diagnoseunterstützung, Sprachübersetzung, Robotersteuerung. All das ist KI – und die meisten dieser Systeme funktionieren grundlegend anders als das, worüber in diesem Kapitel die Rede ist.

Dieses Kapitel konzentriert sich auf große Sprachmodelle – auf Englisch Large Language Models, kurz LLMs. Das sind die Tools hinter ChatGPT, Claude, Gemini, Perplexity und ähnlichen Anwendungen. Sie sind die KI-Kategorie, mit der Selbständige heute im Arbeitsalltag am häufigsten in Berührung kommen – und um die der aktuelle Hype sich hauptsächlich dreht.

Was für LLMs gilt – insbesondere das Folgende über Wahrscheinlichkeit, Halluzinieren und Grenzen – gilt nicht zwingend für andere KI-Systeme. Wer von „KI" redet und dabei immer LLMs meint, vereinfacht zu stark. In diesem Kapitel machen wir diesen Unterschied explizit.

Ein Wort zum Hype

Kaum ein Thema wird gerade so laut diskutiert wie Künstliche Intelligenz. Auf LinkedIn verspricht jeder zweite Beitrag, dass KI deinen Job ersetzt, dein Unternehmen revolutioniert oder die Menschheit rettet – oder vernichtet, je nach Quelle. Die Wahrheit ist wie so oft nüchterner.

Große Sprachmodelle sind beeindruckende Werkzeuge. Aber sie sind Werkzeuge – keine Wesen, keine Intelligenzen, keine allwissenden Assistenten. Sie machen Fehler. Sie erfinden Fakten. Sie haben keine Ahnung, was gestern in den Nachrichten war. Und sie verstehen nicht wirklich, was sie schreiben – auch wenn es sich oft so anfühlt.

Der Hype hat einen praktischen Nebeneffekt: Viele Menschen nutzen KI-Tools entweder gar nicht, weil sie überfordert sind – oder sie vertrauen ihnen blind, weil die Ergebnisse so überzeugend klingen. Beides ist falsch. Was hilft, ist ein realistisches Bild davon, worin Sprachmodelle wirklich gut sind und wo sie versagen.

Was hinter der Fassade steckt: Mathematik, keine Magie

Wer KI-Tools sinnvoll nutzen will, sollte verstehen, was technisch dahintersteckt. Nicht im Detail – aber im Prinzip. Denn das Prinzip erklärt sofort, warum manche Dinge funktionieren und andere grundsätzlich nicht.

Wer hinter die Fassade schaut, sieht: keine Magie, nur Mathematik.

Große Sprachmodelle – die Technologie hinter ChatGPT, Claude, Gemini und ähnlichen Tools – wurden auf enormen Mengen von Texten trainiert: Bücher, Websites, Foren, Artikel, Code. Aus diesem Training lernen sie, welche Wörter (genauer: welche sprachlichen Einheiten, sogenannte Token) in welchem Kontext mit welcher Wahrscheinlichkeit aufeinander folgen. Das ist der Kern des Verfahrens: Wahrscheinlichkeitsoptimierung über Sprachmuster.

Was das Modell beim Schreiben einer Antwort tut, ist im Wesentlichen dies: Es berechnet auf Basis aller bisherigen Tokens – deiner Frage und allem, was es bisher geantwortet hat – welcher Token als nächstes am wahrscheinlichsten passt. Dann der nächste. Dann der übernächste. Token für Token, Wort für Wort.

Das ist keine Intelligenz. Das ist keine Intuition. Das ist Mathematik – hochdimensionale Statistik auf riesigen Datenmengen. Das Ergebnis kann sich wie Verstehen anfühlen, weil es auf menschlicher Sprache basiert. Aber dahinter steht kein Verständnis, kein Bewusstsein, kein Wissen im menschlichen Sinne.

Und genau daraus folgt das wichtigste Merkmal von Sprachmodellen – und ihr zentrales Risiko.

Halluzinieren ist keine Fehlfunktion

Das Wort „Halluzinieren" klingt nach einem Bug, nach einem Fehler, den Entwickler irgendwann beheben werden. Das ist irreführend. Halluzinieren ist keine zufällige Fehlfunktion – es ist eine direkte Konsequenz des Konzepts. Halluzinationsraten werden sehr wohl als Qualitätsmangel gemessen und durch bessere Modelle, Internetanbindung und gezielte Trainingstechniken laufend reduziert. Aber grundsätzlich beseitigen lässt sich das Problem nicht, solange das Verfahren Wahrscheinlichkeit optimiert und nicht Wahrheit prüft.

Ein Sprachmodell optimiert die Wahrscheinlichkeit von Token-Abfolgen. Es optimiert nicht den Wahrheitsgehalt seiner Aussagen. Es hat keinen Mechanismus, der prüft: „Ist das, was ich gerade schreibe, wahr?" Es prüft nur: „Ist das, was ich gerade schreibe, sprachlich plausibel und kontextuell wahrscheinlich?"

Wenn das Modell nach einem Gesetzesparagraphen gefragt wird, den es nicht kennt, erfindet es keinen aus böser Absicht – es berechnet, welche Token-Abfolge in diesem Kontext am wahrscheinlichsten ist. Das Ergebnis klingt wie ein echter Paragraph. Es klingt wie ein glaubwürdiges Zitat. Es klingt wie eine verlässliche Quelle. Es kann komplett erfunden sein.

Das Tückische: Das Modell signalisiert dabei keine Unsicherheit. Es schreibt eine erfundene Gerichtsurteilsnummer mit derselben Sicherheit wie eine echte. Es nennt einen nicht existierenden Autor mit derselben Selbstverständlichkeit wie einen realen. Der Text fließt, die Sprache ist korrekt, der Inhalt ist falsch.

Das lässt sich durch bessere Modelle, durch Internetanbindung oder durch bestimmte Trainingstechniken verringern – aber nicht grundsätzlich beseitigen. Solange Wahrscheinlichkeit optimiert wird und nicht Wahrheit, bleibt Halluzinieren ein strukturelles Merkmal dieser Technologie.

Merksatz: Ein Sprachmodell antwortet mit dem, was statistisch am wahrscheinlichsten passt – nicht mit dem, was wahr ist. Beides fällt oft zusammen. Manchmal nicht. Und das Modell weiß nicht, wann.

Realistische Erwartungen setzen

Wenn man das verstanden hat, ergibt sich von selbst, wofür KI gut geeignet ist und wofür nicht.

KI-Sprachmodelle sind außergewöhnlich gut darin, Text zu verarbeiten, zu erzeugen, umzuformulieren und zusammenzufassen. Sie können Ideen strukturieren, Entwürfe liefern, komplexe Sachverhalte vereinfachen und in Sekunden Texte erzeugen, für die ein Mensch Stunden bräuchte. All das funktioniert gut, weil es auf Wahrscheinlichkeitsoptimierung über Sprache beruht – und genau darin sind diese Modelle trainiert.

Was sie nicht können: denken. Nicht im menschlichen Sinne. Sie haben kein Verständnis – sie berechnen. Das Ergebnis ist häufig korrekt und klingt überzeugend. Aber es kann auch falsch sein – selbstbewusst falsch, ohne jeden Hinweis darauf, dass etwas nicht stimmt.

Merksatz: KI ist ein außergewöhnlich guter Assistent – aber kein Experte. Behandle KI-Output immer wie den Entwurf eines tüchtigen, aber unerfahrenen Mitarbeiters: nützlich als Ausgangspunkt, aber nie ungeprüft weiterzugeben.

Wo KI für Selbständige echten Mehrwert bringt

Texte erstellen und überarbeiten: Angebote, E-Mails, Blogbeiträge, Social-Media-Posts, Präsentationen – KI kann Entwürfe liefern, die du nur noch anpassen musst. Besonders wertvoll: wenn du weißt, was du sagen willst, aber nicht wie.

Zusammenfassen und strukturieren: Lange Dokumente, Verträge, Berichte – KI kann den Kern in wenigen Sätzen zusammenfassen und dir helfen, das Wesentliche schnell zu erfassen.

Brainstorming und Ideenentwicklung: KI ist ein geduldiger Sparringspartner für Ideen. Sie widerspricht nicht, sie schläft nicht, sie hat keine schlechten Tage.

Übersetzen: Für einfache bis mittelschwere Übersetzungen ist KI heute sehr gut. Für rechtlich oder fachlich sensible Texte gilt: immer durch einen Muttersprachler oder Fachübersetzer gegenlesen lassen.

Code und Formeln: Für alle, die gelegentlich mit Tabellenkalkulationen, einfachem Code oder Datenbankabfragen arbeiten, ist KI eine enorme Hilfe.

KI oder Automatisierung – nicht jedes Problem braucht ein Sprachmodell

Bevor wir zu den Grenzen von KI kommen, lohnt sich ein Schritt zurück. Die Frage ist nicht nur, was KI kann – sondern auch, wann KI das richtige Werkzeug ist. Und die ehrliche Antwort lautet: nicht immer.

Es gibt eine ältere, unspektakulärere Kategorie von Werkzeugen, die für viele alltägliche Aufgaben besser geeignet ist als ein Sprachmodell: klassische Automatisierung. Gemeint sind regelbasierte Abläufe, die immer gleich funktionieren – Makros in Excel, automatische E-Mail-Filter, Dateibenennungsregeln, Vorlagen, IFTTT- oder Zapier-Verknüpfungen zwischen Apps. Kein Lernprozess, kein Training, keine Ungewissheit. Die Regel lautet: Wenn X, dann Y. Immer.

Der Unterschied zum Sprachmodell: Automatisierung ist deterministisch – bei gleicher Eingabe kommt immer die gleiche Ausgabe. Ein Sprachmodell ist probabilistisch – es gibt eine wahrscheinliche, aber keine garantierte Antwort. Für manche Aufgaben ist das ein Vorteil. Für andere ist es ein Problem.

Wann klassische Automatisierung die bessere Wahl ist:

  • Die Aufgabe ist klar definiert und wiederholt sich immer gleich: Rechnungen nach Eingang umbenennen, E-Mails mit bestimmtem Betreff in einen Ordner verschieben, Backup täglich um 23 Uhr starten.
  • Das Ergebnis muss exakt und reproduzierbar sein: Berechnungen, Datenbankabfragen, Formatkonvertierungen.
  • Es geht um sensible Daten, die du keinem externen Dienst anvertrauen möchtest oder darfst.
  • Du willst keine KI-abhängige Infrastruktur aufbauen und keine laufenden API-Kosten.

Wann ein Sprachmodell die bessere Wahl ist:

  • Die Aufgabe erfordert Flexibilität und Kontext: einen Brief formulieren, einen Sachverhalt zusammenfassen, Ideen entwickeln.
  • Die Eingabe variiert stark und lässt sich nicht einfach in starre Regeln fassen.
  • Es geht um Sprache, Bedeutung und Nuancen – nicht um exakte, regelhafte Transformation.

Merksatz: Nicht jedes Problem braucht KI. Manchmal ist ein einfaches Makro, ein gut eingerichteter E-Mail-Filter oder eine Vorlage die schnellere, verlässlichere und datenschutzfreundlichere Lösung. KI ist ein mächtiges Werkzeug – aber Werkzeuge wählt man nach der Aufgabe, nicht nach dem Hype.

Wo KI nicht verlässlich ist – und wo es auf den Kontext ankommt

Rechtliche und steuerliche Fragen: Ein generisches Sprachmodell kann eine grobe Orientierung geben, aber keine rechtssichere Auskunft. Es kennt keine regionalen Besonderheiten, keine individuellen Umstände – und selbst wenn es aktuelle Gesetzestexte kennt, fehlt ihm das Urteilsvermögen eines erfahrenen Juristen oder Steuerberaters. Für alles, was rechtliche oder steuerliche Konsequenzen hat, gilt: Fachmann fragen.

Differenzierter wird es bei spezialisierten KI-Anwendungen, die mit aktuellem Kontext angereichert werden – sogenannte RAG-Systeme (Retrieval-Augmented Generation). Dabei wird das Sprachmodell mit Rechtstexten, Urteilen oder Steuervorschriften verknüpft und kann auf dieser Basis präzisere Antworten liefern. Im Legal-Tech-Bereich gibt es heute bereits beeindruckende Anwendungen, die Anwälten bei der Recherche helfen, Vertragsprüfungen unterstützen oder Compliance-Fragen beantworten. Aber auch hier gilt: Das Ergebnis muss von einem Fachmann geprüft werden. KI-gestützte Rechtsanwendungen sind leistungsstarke Hilfsmittel – kein Ersatz für juristische oder steuerliche Expertise.

Aktuelle Informationen: Viele große Sprachmodelle können heute selbständig das Internet durchsuchen und so auf aktuelle Informationen zugreifen – Preise, Gesetze, Nachrichten, aktuelle Urteile. Das ist ein echter Fortschritt gegenüber früheren Modellen, die nur auf ihr Trainingswissen zurückgreifen konnten. Trotzdem gilt: Prüfe bei zeitkritischen oder rechtlich relevanten Informationen immer die Originalquelle. Die KI kann die richtige Quelle finden – ob sie sie korrekt interpretiert, ist eine andere Frage.

Zahlen und Fakten ohne Quellenprüfung: Wenn die KI eine Zahl, ein Zitat oder eine Statistik nennt, prüfe sie. Immer. Wie oben erklärt: Das Modell optimiert Wahrscheinlichkeit, nicht Wahrheit. Die angegebene Quelle kann existieren – oder auch nicht. Der genannte Paragraph kann so stehen – oder auch nicht. Und das Modell signalisiert beides mit derselben Sicherheit.

Kreative Originalität: KI kombiniert Vorhandenes auf neue Weise – aber sie erfindet nichts wirklich Neues im künstlerischen Sinne. Für Texte, die deinen persönlichen Stil, deine Erfahrung und deine Stimme tragen sollen, ist sie ein Hilfsmittel, kein Ersatz. Hinzu kommt ein rechtlicher Aspekt, der oft übersehen wird: KI-generierte Inhalte genießen in den meisten Rechtsordnungen keinen Urheberschutz – weder in Deutschland noch in den USA. Wer also KI-Output unverändert als eigenes Werk ausgibt oder verkauft, bewegt sich auf unsicherem Terrain. Mehr dazu im Kapitel Urheberrecht bei KI-generierten Inhalten.