In einem tollen Vortrag für VHS Wissen live berichtete Michael Decker über „Roboter, Künstliche Intelligenz und der Mensch“
Technologiefolgenabschätzung
Michael Decker arbeitet für das Institut für Technikfolgenabschätzung und Systemanalyse. Sie forschen zu Nachhaltigkeit, Energie und Innovationsprozesse und bieten Politikberatung.
Joseph Schumpeter nannte Innovationen „kreative Zerstörung“. Die Folgen können aus verschiedenen Perspektiven beschrieben werden, z.B. positiv oder negativ, beabsichtigt oder nicht-intendiert.
Künstliche Intelligenz in der Praxis
Decker nannte Beispiele für den Einsatz künstlicher Intelligenz. Die Beurteilung ist abhängig von persönlichen Vorlieben – wer gerne putzt hat keinen Nutzen von einem Staubsaugroboter. Mittlerweile gibt es viele Einsatzmöglichkeiten, die den Menschen weitgehend ersetzen können.
In der Arbeitswelt kann die Automatisierung zu Arbeitsplatzverlusten führen. Gleichzeitig entstehen neue Arbeitsplätze. Für Decker ist deshalb entscheidend, dass Beschäftigte in die Lage versetzt werden, den Wandel zu bewältigen.
Rechtliche und ethische Aspekte
Durch den Einsatz künstlicher Intelligenz werden sich Regeln verändern. Da die Roboter im Einsatz lernen, kann der Produzent keine Verantwortung mehr übernehmen.
Bei der ethischen Ersetzbarkeit unterschied der Referent zwischen „Verhalten“ und „Handeln“: Handeln setzt das Setzen eines Zwecks voraus. Damit ist auch Verantwortung verknüpft. Handeln setzt die Fähigkeit einer Person voraus, diese Handlung zu rechtfertigen. Die Fähigkeit über Gründe zu reden wird zum entscheidenden Kriterium für personale Autonomie. Für technische Systeme ist eine starke Autonomie nicht anstrebenswert. Um zu entscheiden, wie Roboter handeln sollen, wäre es wichtig zu entscheiden, was moralisches Handeln ist.
Darf mich die KI überraschen?
Am Beispiel des Schachspiels GO und einem autonomen Auto zeigte Decker eindrucksvoll die Unterschiede auf. Alpha Go wurde mit 30 Millionen Zügen menschlicher Züge trainiert und anschließend trausende Spiele gegen sich selbst gespielt. Dieses maschinelle Lernen überraschte Profis beider Seiten: Die KI-Experten waren überrascht über die kreativen Züge, die GO-Spieler hielten die Züge zunächst für Fehler und waren über die neue Spielweise verstört. Während Decker hier „Überraschungen“ akzeptieren kann, möchte er von anderen Produkten nicht überrascht werden, z.B. von einem autonomen Auto.
Widersprüchliche Ergebnisse im Gesundheitsbereich
Obwohl Roboter bereits in der Pflege eingesetzt werden, ist die Beurteilung hier eher skeptisch. Gute Pflege ist Interaktion. Sie erfordert Gefühle, Emotionen, Wissen und ist einzelfallbasiert, also eigentlich ein „Mismatch“. Anders sieht die Kooperation in anderen Bereichen aus. Bei der Diagnostik von Krankheiten kann KI den Ärzten helfen. Die Verantwortung muss aber beim Menschen bleiben.
Regeln möglich und nötig
Zum Abschluss seines Vortrags betonte Decker, dass Regeln möglich und nötig sind. Er begrüßte auch die Initiative der EU, Rahmenbedingungen zu setzen., Außerdem forderte er Analysen und Entscheidungen, die vom Kontext abhängig sind sowie Transparenz.