Künstliche Intelligenz (KI oder AI für »Artificial Intelligence«) ist das Trendthema dieser Zeit. Kaum ein Software-Unternehmen, das nicht mit diesen Assistenzsystemen rumexperimetiert. Die Ergebnisse sind durchwachsen. Im Grafik- und Videobereich lassen sich damit auch ganz nette Ergebnisse erzielen wie zum Bespiel das Seitenlogo oben links, doch selbst bei konkreter Beschreibung der Anforderungen bleibt so ein Assistent oft stur. Auch beim Suchen im unüberschaubaren Netz kann KI gute Dienste leisten, aber sonst?
Man kann mir wirklich nicht nachsagen, ich sei altmodisch oder hafte am Erlernten, aber den Ergebnissen der sog. Künstlichen Intelligenz zu anspruchsvolleren Aufgaben begegne ich mit deutlicher Skepsis, und das nicht ohne Grund. Ich publiziere hier meine teils ärgerlichen, teils amüsanten Erfahrungen bei passenden Gelegenheiten.
In einer Nacht-und-Nebel-Aktion hat Microsoft am 17. Januar 2025 die Office-Abonnements-Version Microsoft 365 mit der KI Copilot erweitert. Der Nutzen ist zweifelhaft, die Mehrkosten erheblich, wenn man nicht bei der nächsten Abo-Verlängerung auf Microsoft 365 Classic downgraded. Zu empfehlen ist das Downgrade, denn überzeugen kann diese Ergänzung nicht. Hier ein paar Beispiele für Word.
Öffnen Sie Word mit einem leeren Dokument, drängt sich sofort der Copilot auf:
Update: Copilot ist beim Start noch aufdringlicher, aber zum Glück taucht das Symbol nicht mehr neben einer markierten Zeile auf und stört den Doppelklick im linken Rand, sondern ist in die Minisymbolleiste gerückt.
Nun kann man das natürlich ignorieren und sofort drauflos schreiben, doch bei jedem Betätigen von R ploppt links neben dem Text wieder das Icon auf, um seine zweifelhaften Dienste aufzudrängen.
Abschalten lässt sich das Teil immer noch nicht, obwohl in den Online-Anleitungen die Rede von einem entsprechenden Schalter in den Word-Optionen ist. Da ist aber nichts. Im Gegenteil, mittlerweile ist das Register Copilot aus den Word-Optionen völlig verschwunden.
Kommen wir nach diesen formalen Mängeln zur Leistungsfähigkeit und stellen eine (vermeintlich) leichte Aufgabe.
Unter einem »qualitativ hochwertigen»Inhalt stelle ich mir aber was anderes vor. Also gut, machen wir es einfacher:
»Danke, Sie hören von uns.« 🤣
Update 24.02.25: Das mit dem Blindtext klappt jetzt schon besser, nur mit der Sprache hapert’s noch.
Schlimmer noch: Die KI versteht sich selbst nicht.
Einfach nur zum Testen der Autorenfähigkeiten erteilte ich Copilot den Auftrag, eine Rezension zu Tuhls’ Tools zu schreiben. Das sollte zu schaffen sein, sind doch alle Informationen über das AddIn hier konzentriert abrufbar. Inhaltlich stimmte es auch einigermaßen, aber an einigen Stellen wurde ich stutzig. Braucht der Copilot ’ne Lesebrille? Für virtuelle Texte? Wie sonst könnte man diese Verkorksung von »Hoppelformatierungen« und »Anführungszeichen« wohl deuten?
Ich dachte mir, versuch es doch mal mit einer einfachen Aufgabe.
Das ist eine CH-Tastatur, die Apostroph-Taste ist markiert:
Nun kam ich auf die abwegige Idee, dieselbe Aufgabe Microsofts Copiloten zu stellen. Das Ergebnis:
Auf der Schweizer Tastatur liegt der Apostroph (‚) auf der gleichen Taste wie das „@“-Zeichen. Um den Apostroph zu schreiben, drücken Sie die Umschalttaste (Shift) und die Taste, auf der sich das „@“-Zeichen befindet (in der Regel die Taste mit der Zahl 2).
Hochinteressant, das wollte ich doch mal sehen und gab im Copilot-Aufgabenbereich den Auftrag:
»Generate an image of apostroph key on a swiss keyboard.«
Das Ergebnis beim besten Willen nicht überzeugen.
Also gut, dann fragen wir doch mal das Original ChatGPT:
Fazit: Selbst simple, faktisch leicht nachprüfbare Sachverhalte bringt keine KI auf die Reihe.
Und für so etwas werden Nutzungsgebühren verlangt?
Details zu weltweit bekannten Themen sollten sich leicht finden lassen, wenn die KI freien Zugriff auf die Daten der Welt hat … denkt man. ChatGPT schreibt einfach ein neues Kapitel, von dem noch nie jemand etwas gehört hat (Bild rechts).
Aber auch andere KI tun sich schwer mit den unbeugsamen Galliern; so widerspricht sich Aria in seiner Antwort (Bild unten) und Copilot iterierte sich nach mehreren Hinweisen auf die falsche Nummer an das richtige Heft 4 heran.
Ich war im Zweifel über dir korrekte Reihenfolge der James-Bond-Filme und dachte mir, lass doch eine KI suchen.
Ok, die Reihenfolge stimmte, nicht aber die Hauptdarsteller, was bei einem Eintrag besonders auffällig war. Von einer Künstlichen Intelligenz erwarte ich, dass solche Plausibilitätsfehler erkannt werden.
Zur Illustration der Rubrik »Bunter Teller« ließ ich mir vom Copiloten in PowerPoint helfen. Die Ergebnisse waren durchaus passabel, aber in einem Fall war es partout nicht möglich, ein Gesicht mit einfarbigem Hintergrund zu erhalten. Auch auf Nachbesserungswünsche reagierte Copilot nicht, sondern bastelte neue Bilder mit viel Hintergrund (siehe unten). Copilot scheint durch nichts zum Verzicht auf einen bunten Hintergrund zu bewegen zu sein.
Das letztendlich verwendete Bild stammt zwar von Copilot, wurde aber manuell nachgearbeitet.