Intalligente Technik – Kluge Entscheidung?

Zur Zeit findet in Stuttgart der 35. Deutsche Evangelische Kirchentag statt. Das Motto ist „damit wir klug werden“. Vorgstern habe ich eine Veranstaltung besucht die hieß „Intelligente Technik – Kluge Entscheidung?“.

Am Anfang gab es einige Vorträge und an Ende noch eine Podiumsdiskussion.

Von den technischen Details her war das nur begrenzt interessant. Das lag aber sicherlich auch daran, dass die Zielgruppe nicht unbedingt ein Publikum mit großartig ausgeprägten technischen Kenntnissen war.

Was ich aber sehr interessant fand waren einige Fragestellungen zum Thema Moral. Folgendes Beispiel wurde genannt: Ein autonom fahrendes Auto kommt in eine Situation imStraßenverkehr, in der sich eine Kollision nicht mehr vermeiden lässt. Allerdings gibt es verschiedene Möglichkeiten mit wem man zusammen stößt. Was tut man jetzt? Was ist die beste Lösung? Ein Zusammenstoß mit dem Auto mit den wenigsten Insassen oder mit dem Auto mit der größten Knautschzone? Spielt es eine Rolle wer in dem auto sitzt? Kinder oder Erwachsene? Die Frage ist auch wer das festlegt. Sind alle diese Dinge „hardcoded“ kommt es zu Problemen in Situationen, die der Programmierer nicht bedacht hat.

Wenn das Fahrzeug diese Entscheidungen selbst trifft, muss es dann ein Verständnis von Moral haben? Wer legt fest, was moralisch richtig ist? Muss die Lösung für den Fahrer des Fahrzeugs am besten sein? Müssen insgesamt am wenigsten Leute zu schaden kommen? Muss man versuchen eine Lösung zu finden die für die Gesellschaft am besten ist?

Letzteres klingt vielleicht etwas absurd. Andererseits… Wenn Google autonome Fahrzeuge entwickelt, was hält sie ab alle gesammelten Daten über Personen in solche Entscheidungen mit einfließen zu lassen?

Schreibe einen Kommentar