Ist die künstliche Intelligenz (KI) aufzuhalten? Sicher nicht. Ist sie gefährlich? Es kommt drauf an. Ein Hammer ist ein überaus nützliches Werkzeug. In den falschen Händen kann er zu einer Tatwaffe für einen Mord werden.
Daniel hat einen überaus interessanten Artikel zum Thema KI geschrieben. Zuerst einmal erklärt er, was KI überhaupt ist und was eben nicht. Viele Leute glauben ja, die Automatisierung von Produktions- und Regelungsprozessen oder die Datenverarbeitung seien bereits Teil der KI. Das gehört aber zu den allgemeinen Rationalisierungs- und Effizienzoptimierungen, die die Menschheit seit der Steinzeit durchführt. Auch die Computerisierung ist lediglich ein banales Werkzeug, mit dessen Hilfe Ja-Nein-Entscheidungen getroffen werden. Die KI ist in der Lage, wesentlich gründlicher und umfassender zu recherchieren und in unserem Sinne Darreichungen anzubieten – aber sie unternimmt dabei keine eigenen moralischen oder ethischen Bewertungen: Keine Liebe, kein Hass, keine Emotion … Mr. Spock, Sie haben die Brücke.
In den 1980er Jahren geschah mehr als ein Mal, dass Computer durch Fehlfunktionen beinahe einen Atomkrieg ausgelöst hatten. Menschen stoppten in letzter Sekunde den Start der Raketen. Das Risiko, durch banale technische Fehler menschliche Fehlentscheidungen zu treffen, war also schon immer vorhanden und ist kein explizites Merkmal der KI. Erst wenn wir die Entscheidungsgewalt vollständig abgeben und sie in die Hände der KI legen, wird es gefährlich. Denn, wie gesagt, in den falschen Händen wird selbst das nützlichste Werkzeug mitunter zur Mordwaffe.
Es kommt also immer darauf an, wie was von wem warum und wozu benutzt wird. Per se die KI zu verteufeln ist genauso falsch, wie sie als Heilsbringer in den Himmel zu loben.
Dass man (dass viele andere und ich selber auch) Politikern und Staatslenkern, Monopol-Konzernen und Ideologen nicht vertraue, dass letztlich auch das Böse die KI für seine Zwecke benutzen kann, ist ein grundsätzliches Problem von uns Menschen und weniger eines der KI. Die KI ließe sich genauso auch positiv sehen, denn vielleicht wird es zukünftig sogar gerade die KI sein, die uns vor den Machenschaften des Bösen rechtzeitig warnt oder beschützen wird.
Je weiter man darüber nachdenkt, desto spukiger gerät man in den Bereich der Science-Fiction, nicht wahr? Der Kampf der Giganten: KI, eingesetzt für das Gute, gegen die für das Böse eingesetzte KI. – Und schon landen wir wieder beim Hammer oder bei den Keulen, mit denen wir Menschen aufeinander losgehen.
Die Gefahren, welche ich derzeit bei „KI“ sehe, entstehen dadurch, dass sich die Menschen zu früh zu sehr darauf verlassen.
Viele Entscheidungen (z.B. in Sozialen Netzwerken) werden auch heute schon von „KI“ getroffen… und die liegt oft genug daneben. Und weil man sich drauf verlässt, gibt es auch keine menschliche Endkontrolle mehr. Der Bockmist geht durch.
Noch schlimmer ist, dass sich die Leute auf die LLM immer mehr verlassen und das selbständige (mit einem „st“ nach alter Rechtschreibung 😉) Denken einstellen und nach und nach verlernen. „KI“ kann eine tolle Unterstützung sein, aber die „natürliche Intelligenz“ sollte letztlich darüber entscheiden, ob die „KI“ auch richtig lag. So wie sie derzeit eingesetzt wird, dient sie meiner Meinung nach vor allem dazu, die Leute noch mehr zu verblöden.
So ist es.
Ich weiß von – um keine Rückschlüsse vollziehen zu können sage ich mal verallgemeinernd – therapeutischen Pflegern, die täglich einen schriftlichen Bericht ihrer Arbeit zu machen haben. Das ist natürlich lästig, man versteht ihren Unmut gut. Je nach Vermögen bzw. Übung geht dafür eine oder gar zwei Stunden der Arbeitszeit drauf (obwohl das Verfassen ja zum Tätigkeitsbereich dazugehört. Es wird halt anders gesehen). Seit wenigen Monaten benutzen sie nun ChatGPT dafür: Sie geben einfach die Stammdaten der Patienten ein und ein paar Stichworte, schon erhalten sie einen wirklich erstaunlich kompetent klingenden und ausführlichen Tagesbericht. Ein Pfleger fing damit an, heute ist daraus eine Epidemie geworden.
Schlimm daran finde ich nicht nur, dass es jetzt überhaupt keinen Datenschutz mehr gibt, sondern auch, dass Dinge in den Berichten beschrieben werden, die gar nicht stattgefunden haben aber so belassen werden, um diese Berichte noch einmal in den Augen der Pfleger aufzuwerten. Auf Dauer verlieren diese jungen Leute all ihre erworbenen Fähigkeiten zur Dokumentation und sind später nicht mehr in der Lage, einen eigenen Bericht selbstständig anzufertigen. Und schlussendlich kreide ich der Pflegedienstleitung an, dass sie nicht dafür sorgt, dass die Berichte auch regelmäßig gelesen werden – würden sie es, wäre längst aufgefallen, dass eine derartige Professionalität der täglichen Berichterstattung, die schon mehr an wissenschaftliche Studien erinnert als an Tagesberichte, gar nicht möglich ist. Die Verwendung von ChatGPT interessiert einfach kein Schwein.
Wenn es in diesem einen Bereich so ist, wird es in vielen anderen Berufen ähnlich sein. Während „wir” noch über die Vor- und Nachteile der KI diskutieren, wird sie längst benutzt ohne dass es irgendwelche Regeln dafür gibt. Es scheint sich dabei schon wieder um solch eine Entwicklung zu handeln wie das Internet, die die Realität schlichtweg überrollt und bei der irgendwann später, wenn mal etwas deswegen passieren sollte, notdürftig Regeln eingeführt werden, die dann aber nur eher kosmetischer Natur sind.
Komischerweise habe ich beim Militär überhaupt keine Angst, dass da die KI über Gebühr eingesetzt wird, denn Militärs geben die Entscheidungsgewalt ungern aus der Hand, sie wollen alles selber entscheiden. Dort wird die KI sicher nur eine beratende Funktion haben. Aber ich möchte nicht wissen, wie viel bzw. wie weit die KI bereits in Ministerien und den Verwaltungen entscheidend wirksam ist – in Brüssel bis in den Ländern, vielleicht sogar den Kommunen – wenn es um Millionenbeträge geht. Die Bürokratie zu durchschauen und vollumfänglich zu verstehen, das schaffen ja selbst die Bürokraten kaum. Was entscheidet dort also längst die KI?