Künstliche Intelligenz klingt nach einer verflucht großartigen Verheißung. Ist sie das? Ich denke, wir dressieren langsam uns zu KI-Fütterern. Ja, es hilft, was unter dem größten Schlagwort derzeit firmiert. Aber die vielen Versprechen, die damit einher gehen, können doch meistens gar nicht eingehalten werden. Was bleibt, ist die Erkenntnis, dass nicht alles intelligent ist, was sich intelligent nennt. Zumal ja das, was uns als „KI“ verkauft wird, den Begriff gar nicht verdient.
Ein Gespräch mit Copilot
Ich wollte neulich in unserer hybriden Exchange-Testumgebung etwas ausprobieren und habe es einfach nicht hinbekommen. Mir fiel auch nicht auf, wo der Fehler liegen könnte. Also habe ich mir einfach gedacht, ich frage mal bei Copilot, wie man das am besten machen könnte. Schließlich bewirbt ja Microsoft das Ding großfressig als Künstliche Intelligenz. Da das Meiste aus dem – nun ja – Gespräch für die meisten Leser uninteressant weil zu fachlich ist, hier nur mal eine kurze Beschreibung.
Man soll ja mit Copilot chatten wie mit einem Kollegen. Also habe ich Copilot gefragt: „Sag mal, wenn ich XYZ machen will und dafür die EXO PowerShell und die Exchange Management Shell benötige, wo liegt denn hier mein Fehler?“, gefolgt von einem Ausschnitt meiner versuchten Coderei. Ich kann es einfach nicht gut. Ich reime mir da was zusammen. Und wenn es klappt, hake ich das Ganze ab.
Jedenfalls dachte Copilot kurz nach und offerierte mir: „Dude, das ist ganz einfach. Du musst den Befehl ABC vorher ausführen, dann noch dies, das und jenes dazu, dann erhältst du dein Ergebnis“. Ich vereinfache hier bewusst. Ich will ja niemanden langweilen. Jedenfalls bin ich schreibfaul beim Benutzen der PowerShell. Also Befehl angefangen und versucht, mit TAB zu vervollständigen. (Also bei „Get-Mailbox“ dann nur „Get-M TAB“)
Was glaubt ihr, wie ich mich gefreut hatte, dass als die PowerShell den Befehl per TAB nicht fand und per vollständiger Eingabe mir mit einem Fehler einen Vogel gezeigt hatte! Ich vorwurfsvoll zu Copilot: „Den Befehl gibt es gar nicht.“ – Copilot so: „Ja, du hast Recht, dann lass ihn halt weg.“ – Freundchen, willst du mich verschaukeln? Ich hab dann letzten Endes meinen Code doch noch zum Fliegen gebracht, nachdem ich einen Schreibfehler korrigiert hatte.
Künstliche Intelligenz ist gar nicht so intelligent
Oliver beschreibt sie als stochastischen Papagei. Künstliche Intelligenz kann einfach nicht das erfüllen, was angepriesen wird. Wie in meinem Beispiel werden einfach mal Befehle zusammen fantasiert. Wir haben von Kunden unserer Abteilung erfahren, die sich ihre Umgebung verfrickelt hatten, nachdem sie stumpf das gemacht hatten, was ihnen die KI zusammen halluziniert hatte. Und so kommt es zu seltsamen Deutschland-Karten, wie hier von Kalle ausprobiert.
Der Happy-Buddha hat auch so eine Ausgabe. In meinem Beispiel war das sogar ein Business-Account, der von Copilot verschaukelt wurde. Hört also auf, liebe Radiosender, einen Verkehrsfunk „powered by Künstliche Intelligenz“ anzupreisen. Was soll das sein? Nee, Freunde, bei dem Spiel mache ich nicht mit. Natürlich werde ich mir weiter Gedankenstützen holen. Dann aber eher mit der KI als Nachschlagewerk. Man kann ja nicht alles wissen. Aber selbst das muss ich dann immer ohne KI überprüfen.
Und da bin ich bei meinem Punkt: Wir sind natürlich umgeben von Affen. Das sind sehr intelligente Tiere. Die würden vermutlich nicht auf die Idee kommen, eine Künstliche Intelligenz zu befragen. Die stellen ihre Werkzeuge selbst her und lösen ihre Probleme einfach. Wir sollten es wie die Affen tun und die KI nicht so unschlagbar sehen. Meine Lösung hatte ich Copilot nicht gegeben. Warum denn auch? Der weiß es eh besser. Werden wir keine seelenlosen KI-Fütterer, nutzen wir den Kram intelligent. Als Werkzeug.
Ob ich Angst habe, dass mir die Künstliche Intelligenz meinen Job streitig macht? Nicht wirklich. Denn es gehört ja noch einiges mehr dazu, meinen Job im 3rd Tier Support zu absolvieren, als Lösungen zu googlen. Ich habe es noch nie gehört, dass eine KI um die Ecke denken oder sich in sein Gegenüber einfühlen kann. Und Engagement und Herzblut? Wird man wohl auch vermissen. Dann sind wir lieber Affen und nutzen unsere Werkzeuge bestmöglich. Wenn es sein muss, ist das auch die KI. Aber nicht nur.




Hach ja… hatte gerade etwas ähnliches mit ChatGPT, das ich zu einem mir unerfindlichen Fehler im Zusammenspiel von zwei Plugins befragte. Der vorgeschlagene Lösungsweg war für den Allerwertesten, da es eine angeblich verfügbare Option im Plugin gar nicht gab. Auf Nachfrage kam dann ein joviales „Du hast Recht, seit Version XYZ gibt es das nicht mehr, ich zeig dir jetzt einen Ansatz für die aktuelle Version“ – ja Himmelherrgott, warum denn nicht gleich so, warum beruft sich das Ding denn initial auf veraltete Informationen…? Kopf @ Tischplatte…
Ähnliche Erfahrungen habe ich auch gemacht – aber es läuft nicht immer nur in eine Richtung. Seit einiger Zeit nutze ich ein Plug-in, das vorbildlich gepflegt wird und regelmäßig Updates bekommt. Als ich kürzlich ein Problem hatte und mit ChatGPT darüber sprach, stellte sich heraus: Die Lösung war denkbar einfach. Eine kleine Änderung im Set-up, und schon funktionierte alles wieder.
Ich habe inzwischen etliche Plug-ins und Snippets im Einsatz, die ich mit Unterstützung von ChatGPT erstellt habe. Genauer gesagt: Ich erkläre, was ich benötige – die KI liefert einen brauchbaren Vorschlag. Mit etwas Geduld, ein paar Korrekturschleifen und etwas Neugier läuft das meist rund. Früher hätte ich mich da nie herangewagt. Heute geht das. Und ich mag das.
Ich ahne allerdings, dass professionelle Entwickler bei solchen Geschichten eher die Stirn runzeln würden.
Horst, das tun sie doch immer. Ich hatte heute wegen einer Angelegenheit bei einem Kunden in meinem Job ein extrem produktives Meeting mit einem Microsoft-Hansel. Der schwört auf Copilot. Aber er meint halt, das sei wie ein Kind. Dem muss man immer erst was beibringen und mit ihm reden, damit aus dem Racker was wird.
Ich sehe das als Werkzeug an. Vermutlich muss ich das Messer nur richtig schleifen, damit es die richtigen Ergebnisse bringt. Wer weiß. Irgendwann gibt es sicherlich Aufschluss.
Dass es mit einer „lockeren Anfrage“ an ausgerechnet Copilot nicht läuft, wundert mich garnicht! Der Umgang mit KI (die sich seit 2023 wahrlich verbessert hat) braucht durchaus eine Lernkurve – und ohne Kontext kommt halt Schrott. Hinzu kommt, dass man für verschiedene Aufgaben unterschiedliche KIs einsetzen sollte, denn z.B. können die einen super coden, andere besser „chatten“ etc. Aber Kontext ist wirllich alles, den hast du ja bei deinen Kunden mit ihren gewachsenen Systemen auch. Wenn KI das alles nicht weiß, wie soll es funktionieren?
Nun ist der Adminbereich auch besonders komplex, so dass es wohl länger dauern würde, einer KI dialogisch sämtliche Bedingungen mitzuteilen, die erforderlich wären, um das Problem zu lösen. Bei meinen Anwendungen (Recherche, Erklärungen, Textgliederungen, tiefer schürfende Forschungen zu diversen Inhalten) ist es einfacher. Aber immer nutze ich diverse KIs über Perplexity Pro (20 Euro/Monat), für viele Fragen ein Modell mit „denken“ oder „tiefe Forschung“ (wobei man noch die Art der Quellen vorgeben kann, z.B. nur Web, nur wissenschaftl. Studien etc.). Und ich weise ihr zum Start eine Rolle zu: Du bist ein Professor für… mit 30 Jahren Erfarung in…. spezialisiert auf…. – das klappt recht gut!
Aber immer noch gilt: man muss schon ein bisschen Ahnung vom erfragten Bereich haben und Widersprüche erkennen können, die dann dialogisch bearbeitet werden können (witzig, wie sich KI immer entschuldigt bei Fehlern!)
Ich habe ja geschrieben, dass ich bewusst im Text alles vereinfacht hatte. Natürlich habe ich Copilot alles mögliche erklärt. Und da ich mit Business-Account unterwegs war, wird auch der Kontext klar, da Copilot die – nun ja – Chats speichert und sich daher einen Kontext erarbeiten kann.
Nein, mir ging es darum, dass Copilot einen Befehl zusammen fantasiert, den es schlichtweg nicht gibt. Nicht in irgendeinem Kontext oder auch ohne, es gibt ihn gar nicht.
Es stimmt natürlich schon, dass den ganzen Tools „Sidefacts“ mitgegeben werden müssen. Wenn man aber – im übertragenen Sinn – sagt „Mal mir mal einen blauen Himmel“, und das Ergebnis ist ein grüner Wald, weiß ich nicht, wo der Kontext herkommen soll.
Und nein, ich verteufle es nicht. Es geht mir darum, dass man halt nicht alles glauben sollte, was einem da vorgesetzt wird.
Da hast du zweifellos recht! Man sollte Ahnung haben vom Bereich der Fragen, die man stellt. „Ja, du hast Recht, dann lass ihn halt weg.“ ist im übrigen eine wirklich blöde Antwort! Hast du es nicht neu schreiben lassen?
Doch doch, es gab dann eine Korrektur. Quasi der gleiche Code Block, nur ohne den Befehl, den es nicht gibt. Und der Block hatte funktioniert.
Du hast so recht, Claudia. Es gibt erstaunlich viele, die KI nicht mögen und die ihr auch ungern eine Chance geben.