Wie die KI-Debatte falsch läuft und wo Software heute teilautonom entscheidet
Anfang 2015 hat Elon Musk dem Future of Life Institute 10 Millionen Dollar gespendet, damit künstliche Intelligenz zum Wohle der Menschheit arbeitet. Das Paper, das dieses Grundlagen-Forschungsvorhaben umreißt, hat mich überzeugt, dass es heute Zeit ist, sich darüber Gedanken zu machen. Es gibt heute keine generelle Künstliche Intelligenz, ganz zu schweigen von einer Superintelligenz.
Aber seit einigen Jahren macht für spezielle Aufgaben (Gesichtserkennung, Spracherkennung, Übersetzung) entwickelte Software enorme Fortschritte. Programme erledigen einige früher Menschen vorbehaltene Aufgaben nunmehr gut genug für den produktiven Einsatz.
Und hier sehe ich ein Problem: Das gut genug in dieser Formulierung wird selten präzisiert, unabhängig untersucht und quantifiziert. Wir denken bei KI an Shodan, das Master Control Program, Terminator und derlei und unterschätzen dabei die aktuelle Wirkung von Software. Es ist nicht so, das Software in einer entfernten Zukunft autonom entscheidet. Software tut das heute in speziellen aber sensiblen Aufgabengebieten.
Ein Beispiel: Vor zwei Jahren fand ein Systemingenieur zufällig heraus, dass Software in Profi-Kopierern unter bestimmten Umständen Zahlen in Scans vertauscht. Aus einer 6 im Original wird eine 8 in der digitalen Kopie. Banal, denkt man. Dann denkt man weiter: Mit den Geräten arbeiten Architekten, Buchhalter, Rechnungsprüfer usw..
Es wäre gut, wenn es eine Debatte gäbe. Voraussetzung: Es geht nicht um Science Fiction, sondern um die Gegenwart. Eine Kernfrage ist heute wie übermorgen: Wie prüfen wir unabhängig, ob Software die abstrakt formulierten Ziele für ihren Einsatz erfüllt? Dabei wäre dann aber auch über die konkreten Ziele zu reden, die ein Unternehmen mit solcher Software verfolgt. Das kann sich von abstrakt und öffentlich formulierten Zielen unterscheiden.
Einige Beispiele dafür, was Software heute tut. Software…
- … setzt Endkundenpreise fest – und experimentiert.
- … handelt an Börsen – je nach Strategie mit der Möglichkeiten zu autonomen Entscheidungen über Preise, Anlageobjekte und Handelsvolumina.
- … entscheidet, welche Artikel aus Medien und Mitteilungen welcher ihrer Freunde und Bekannten 1,4 Milliarden Menschen weltweit zu sehen bekommen.
- … bewertet die Wahrscheinlichkeit, dass Fakten wahr sind.
Auf all diesen Gebieten sind schon heute die vier Forschungsfragen relevant, die das Future of Life Institute für Robuste KI formuliert hat:
- Verifizierung: Wie beweise ich, dass das System die formellen Kriterien erfüllt? Oder: Habe ich das System richtig gebaut?
- Validität: Wie sichere ich, dass das System beim Erfüllen der formalen Kriterien nicht unerwünschte Verhaltensweisen und Folgen produziert? Oder: habe ich das richtige System gebaut?
- Sicherheit: Wie verhindere ich beabsichtigte Manipulation durch nicht autorisierte Dritte?
- Kontrolle: Wie ermögliche ich sinnvolle menschliche Kontrolle des Systems? Oder: Ich habe das System falsch gebaut, kann ich es reparieren?
Wäre doch gut zu wissen, oder? Ich würde eine fünfte Frage anhängen: Das es Software oft auf gesellschaftlich relevanten Feldern autonom handelnd, sollten die Antworten auf die Fragen 1 bis 4 öffentlich sein und eine Debatte anregen. Wie kriegt man das hin? Das finde ich wichtiger und spannender als Diskussion über Shodan & Co..