Dagmar Boedicker

 

Künstliche Intelligenz – sind wir die Dummen?

 

Bericht von Detlef Hein

„Künstliche Intelligenz (Kl) – sind wir die Dummen?“

Wer am 12. November 2017 zur Sonntagsmatinee wollte, musste zunächst einen nasskalten Weg zum Palais Walderdorff zurück legen. Doch der warme Raum und die Musik der Gruppe „Two for swing“ (Gitarre/vokal und Alt-Saxophon) sorgten für einen wohltuenden Empfang.

Etwa 40 bis 50 Gäste waren zum Vortrag von Frau Boedicker über die „Künstliche Intelligenz“ (KI) gekommen. Frau Boedicker ist Journalistin und technische Redakteurin mit dem Schwerpunkt Infomationstechnik (IT) und Gesellschaft.

Bei seinen einführenden Worten konnte unser Vorstandsmitglied Winfried Blasweiler von eigener Erfahrung berichten wie er 1959 mit einer frühen Rechenanlage der Firma Zuse zu tun hatte, die einen ganzen Raum füllte.

Es war wohl immer ein Traum, eine Maschine mit menschlichen Eigenschaften zu konstruieren. Das „Entscheidungsvermögen“ bezog sich zunächst auf einfache Regeln nach dem Muster: „Wenn... - dann...“ Ist das schon künstliche Intelligenz? Keineswegs, so Herr Blasweiler. Zu unterscheiden ist schwache von starker künstlicher Intelligenz. Bei künstlicher Intelligenz ist die Fähigkeit zu Lernen unabdingbar.

Systeme lernen anders als Menschen – so Frau Boedicker. Es sind komplexe Verfahren. In sogenannten neuronalen Netzen führen Daten nach gegebenen Auswahlverläufen zu Ergebnissen. Es gibt keine Kontrolle über die Abläufe in den Schichten zwischen Eingabe- und Ausgabeschicht. Es gibt Entsprechungen, Korrelate, aber das sind keine Kausalitätsketten. Daher können Lenkung und Verantwortung keiner einzelnen Stelle zugeordnet werden.

Die ethische Frage der KI lautet: Wer hat die Folgen von Entscheidungen in der KI zu verantworten? An Entwicklung und Einsatz sind viele Akteure beteiligt. Keinem von ihnen lässt sich die alleinige Verantwortung zuschreiben. Sie alle – und auch wir als NutzerInnen – tragen Verantwortung, da wir die Trainingsdaten für das Maschjnenlernen liefern.

Es ist ein Dilemma: Die Folgen von Entscheidungen sind im Prozess nicht erkennbar. Wenn sie aber am Ende des Prozesses erkannt werden, ist es zu spät für eine Korrektur.

Beispiel: Es hatte einen tödlichen Unfall mit einem selbst fahrenden Tesla-Auto gegeben. Dessen KI hatte einen LKW nicht als Fahrzeug erkannt wegen einer großen Werbeschrift auf der Rückwand. Das Ergebnis der Bildverarbeitung lautete daher „Werbetafel“, das Fahrzeug reagierte falsch und erzeugte einen Unfall.

Wegen der vielen Akteure muss Verantwortung im konkreten Kontext der Beteiligten berücksichtigt werden.

In KI und Robotik können die Veränderungen schnell und einschneidend sein. Die ethischen Grundfragen aber bleiben und hinken hinterher. Deshalb können „ethische Prinzipien“ in technischen Systemen per se nicht ethisch sein. Der Mensch muss sie haben und verantworten

Wir brauchen ein europäisches KI-Verständnis, das europäischem Recht und dem Grundrechtsschutz der Menschenwürde unterstellt.

Ein Beispiel aus China zeigt, wie Persönlichkeitsrechte durch KI eingeschrenkt werden können;

Bis 2020 soll ein Social Credit-System flächendeckend eingeführt werden, bei dem der Staat das Sozial- und Online-Verhalten seiner Bürger überwacht und beurteilt. Aus den Kategorisierungen ergeben sich Belohungs- und Strafsysteme. So kann zum Beispiel ein Bürger je nach Kategorie einen Kredit bis zu einer bestimmten Höhe erhalten, leichter oder schwerer an eine Wohnung kommen und so weiter. (Vgl. SPIEGEL 11.11.17 S. 21)

In der anschließenden Diskussion werden Erfahrungen, Fragen und Ängste formuliert:

* Ist die Kommunikations-Infrastruktur ein öffentliches Gut? Sind es unsere Daten? Welche sind es, welche nicht? Wenn Daten und Infrastrukturen in privater Hand sind, was dürfen Betreiber und Anbieter dann damit? Was müssen sie? Fragen der Regulierung.

* Wie hilfreich können Prinzipien des Datenschutzes wie die Zweckbindung heute noch sein, wenn sie aufgeweicht werden, und die Anonymisierung nicht gewährleistet ist?

* In einem Fall aus einer Fernsehdokumentation schloss die Software des Rechners eines Arztes aus der Stimme eines Anrufenden, dass sie oder er möglicherweise eine bestimmte Krankheit entwickle. Was folgt daraus für das Verhältnis Arzt- Patient? Wird der Arzt womöglich zum Allwissenden oder Dummschwätzer?

* Wie wahrscheinlich ist der Einsatz von Robotern in der Pflege? Manche Menschen scheinen Roboter-Puppen zu akzeptieren. Manche verteidigen ihre Verwendung damit, dass maschinelle Zuwendung „besser sei als keine Zuwendung“.
Empathie entwickeln eben nur Menschen; sie unterscheidet uns von der Maschine.

Maßstäbe sind notwendig und gesetzlich zu regeln:
* Die ethischen Grundsätze unserer Kultur dürfen durch Maschinen nicht vernachlässigt werden.
* Menschenwürde, Autonomie und Persönlichkeitsrechte dürfen nicht eingeschränkt werden.
* Von Verantwortung und Haftungsverpflichtungen kann der Mensch durch Maschinen nicht befreit werden.

Vortrag und Austausch haben in einer lebendigen Atmosphäre zu einem erhöhten Problembewusstsein geführt.

 

Zurück