Es scheint im Internet grob zwei Arten von KI-Experten zu geben: Diejenigen, die KI nutzen, und diejenigen, die vor KI und ihren Folgen warnen. Letzteres wirkt auch sehr typisch deutsch, denn es wird sich selten umfassend mit dem Thema beschäftigt. Stattdessen konzentriert man sich fast ausschließlich auf die Gefahren und negativen Auswirkungen, die KI hat oder haben könnte. Es wird untersucht, wie sich diese negativen Auswirkungen auf die Gesellschaft auswirken werden, ohne vorher zu überprüfen, ob die angenommene Ursache überhaupt existiert.
Ein Beispiel ist die Behauptung, KI würde jegliche Individualität zerstören, weil sie angeblich immer nur die häufigste Antwort liefert und alle anderen Antworten verwirft. Die Annahme wäre etwa: Man fragt die KI, wie man eine Homepage baut, und erhält grundsätzlich die Antwort, man solle WordPress verwenden, weil die meisten Seiten darauf basieren. Oder das PHP-Framework wäre immer Symfony.
Jeder, der wirklich mit KI gearbeitet hat und nicht nur ein paar oberflächliche Fragen stellt, um sich in der eigenen Ansicht über die angeblichen Gefahren zu bestätigen, weiß, dass eine KI extrem differenzierte Vorschläge liefern kann. Sie findet sehr passende Lösungen, wenn man ihr den nötigen Kontext liefert. Oft liefert sie sogar Lösungen, von denen man selbst noch nie gehört hat.
Das eigentliche Problem ist, dass viele Menschen Schwierigkeiten damit haben, klar zu formulieren, was sie brauchen oder möchten. Selbst Suchmaschinen überfordern viele schon deutlich – und eine KI sinnvoll zu nutzen erfordert noch mehr Fähigkeit, den eigenen Wunsch oder die eigene Frage präzise auszudrücken. Auch ein Mensch kann nur allgemeine Antworten geben, wenn die Frage allgemein formuliert ist. „Womit baue ich mir eine Homepage?“ ist eben keine besonders hilfreiche Frage, wenn man eine auf den konkreten Anwendungsfall zugeschnittene Antwort erhalten möchte. Dennoch wird die Antwort der KI dann schnell als unzulänglich bewertet, weil sie beispielsweise kein Shopsystem nennt – obwohl gar nicht danach gefragt wurde.
Solche Situationen gab es früher schon im menschlichen Austausch: Manche bezeichneten einen sofort als unfähig oder meinten, man würde seinen Beruf nicht beherrschen, nur weil man nicht die Antwort geliefert hat, die nie gestellt, aber trotzdem erwartet wurde.
Wer also nur allgemeine Antworten von einer KI erhält, sollte zuerst seine eigenen Fragen und Prompts überprüfen. Eine KI kann keine Gedanken lesen.
Google liefert inzwischen sehr viel schneller nur noch allgemeine Ergebnisse – selbst bei komplexeren Suchbegriffen – während eine KI den bereitgestellten Kontext nutzen kann, um genau dieses Problem zu umgehen.