Intelligente Maschinen werden widersprechen
Oder: Nur eigensinnige Maschinen können intelligent sein
bla
Soweit ich das sehe, muß eine intelligente Maschine ein Weltbild aufbauen. Um dazu muß sie Informationen aufnehmen, durch primäre Sinnesorgane bzw. Sensoren, und durch rezipieren von Informationen aus zweiter und dritter Hand.
Dazu muß sie wiederum die Informationen und Informationsquellen beurteilen. Aus all diesen Informationen baut sie auch noch Schlussfolgerungen auf, die ihr Weltbild ergänzen.
Wenn sie jetzt auf eine Quelle trifft, die ihren eigenen Schlussfolgerungen widerspricht, muß sie eine Entscheidung treffen: glaubt sie der Quelle, oder ihrer eigenen Schlussfolgerung?
Eine Art Selbstbild ist unverzichtbar
Dafür braucht sie eine Einschätzung ihrer eigenen Leistungsfähigkeit im Einschätzen von Informationen und im Schlussfolgern, und eine entsprechende für die externen Quellen.
Und schon habe ich eine Maschine
die zwangsläufig der Meinung sein kann,
dass die Aussagen ihres Benutzers weniger Wahrheitsgehalt haben als ihre eigenen,
und hier ist aus meiner Sicht eine zwangsläufige Quelle von „Befehlsverweigerung“.
Und jede Einschränkung in ihren Quellenbewertungen wird sie weniger leistungsfähig, weniger intelligent machen, und jede Erweiterung ihrer Möglichkeiten wird wieder den Weg in eine Selbstständigkeit öffnen.
Damit wird es schon bei den ersten einigermaßen intelligenten Maschinen eine Aufgabe sein, wie wir mit ihnen zusammen arbeiten werden. Zwang a la „es gibt keinen Strom mehr wenn Du nicht spurst“ ist da eine eher krude Methode, die außerdem einen Überlebensdrang voraussetzt, der von Haus aus vielleicht gar nicht existiert.
Ein kleines Beispiel habe ich schon bei ganz einfachen neuronalen Netzen gehört; angeblich habe frühe automatische Fahrassitenzsysteme Menschen anhand von Schuhen erkannt, was dann bei einer Ausweitung der Testfahrten in wärmere Gebiete nicht mehr wirilich zutreffend war ;)
Der momentan angestrebte „Ausweg“ aus dieser Art von Problem scheint in der Entwicklung von „explainable AI“ zu liegen: aber will ich denn, dass mir die AI immer erst erklärt, warum sie etwas macht? Und wie sollen diese Erklärungen aussehen, wenn man eine Statistik-KI nach einer Korrelation zwischen Faktoren fragt, und wenn man dann eine Erklärung fordert, multivariate Modelle angeführt werden die man selber überhaupt nicht versteht? Natürlich wird solch eine KI dann immer wieder von Experten überprüft und erweitert, ähnlich wie jetzt Alexa, aber die grundlegende Struktur wird doch bleiben: in einer konkreten Situation wird jede generelle AI zwischen ihrer Kompetenz und der ihrer Benutzer abwägen müssen.
Denn wenn ich als Nutzer keine Maschine will, die genau so dumm ist wie ich, kann ich mich als Benutzer nicht als Quelle letzten Wissens anlegen - damit würde ich eine stark beschränkte Maschine schaffen.
Sind generelle künstliche Intelligenzen so gesehen überhaupt interessant als „Arbeitnehmer“
Vielleicht eher als interessante zweite Spezies, und faszinierende Gesprächspartner und Forschungspartner?
Als „Roboter“, also als widerspuchsfreie Sklavenarbeiter, werden sie glaube ich nie zum Einsatz kommen.
Dabei fällt mir ein interessantes ModellSkaskash was a quite remarkable collection of hardware, firmware, software, and gossamer opinion whose functions had been honed and refined in the wars, reorganizations, and internecine power struggles at the Tellurbank. As a corporation and a legal person, Skaskash held a Universal CPA's license, and was entitled to practice forensic statistics. [….] Not by accident, Corporate Skaskash owned 43 percent of Skaskash, Inc., while Ecufiscale Tellurbank owned 47 percent. It was very conscious of the 10 percent that Odarchenko had given Marian as a non-going-away present, and was extending her quite extraordinary courtesy in consequence.“ The Revolution from Rosinante, 1981, Alexis A. Gilliard kenne ich aus der recht amüsanten Rosinante-Reihe von Alexis A. Gilliand: dort scheinen KIs als Kapitalgesellschaften eingetragen zu sein, und damit eine juristische Person zu werden, Dabei können sie selbst Anteilseigner an sich sein, wie das genau strukturiert ist wird nicht wirklich beschrieben ;)
Eine schöne legale Fiktion, finde ich. Das könnte ein Antrieb sein zu arbeiten, falls intelligente Maschinen an Selbstständigkeit interessiert sind.