JA, KI und Waffenautomation braucht solche universalen Gesetze. Ob die UN das schafft? Hier mal die bisherigen Texte: Assimov 1950: Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. Ein Roboter muss seine eigene Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert. Assimov erweitert: Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz. Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht. Calibans Gesetze Ein Roboter darf keinen Menschen verletzen. Ein Roboter ist verpflichtet, mit Menschen zusammenzuarbeiten, es sei denn, diese Zusammenarbeit stünde im Widerspruch zum Ersten Gesetz. Ein Roboter muss seine eigene Existenz schützen, solange er dadurch nicht in einen Konflikt mit dem Ersten Gesetz gerät. Ein Roboter hat die Freiheit zu tun, was er will, es sei denn, er würde dadurch gegen das Erste, Zweite oder Dritte Gesetz verstoßen. Caliban selbst ist der Prototyp eines Roboters, der an kein Gesetz gebunden ist. Könnte man da auch Verhaltensregeln für automatische Banken, Fonds und Finanzdienstleister ableiten? Lasst uns mal darüber nachdenken. Die EU-Bürokraten schaffen sowas ja nicht. 😀
... Mehr anzeigen