dass ich schuld wäre, wenn er eine straftat begeht, ich für sein überfahren aber nichts dafür kann
Ist ja nicht sein Zug, er fährt ihn ja nur. da wäre die DB Schuld, weil die den “Befehl” gegeben hat, dass der Lokführer den Zug fahren soll.
Das Beispiel ist Schwachsinn und das weißt du sicher auch.
Es geht um das plattfahren von Leuten.
Sonstige Verbrechen haben mit dem Führen des Fahrzeuges ja nichts zu tun.
Ich habe niemanden plattgefahren. Das hat die KI getan. Wenn ich keine Möglichkeit hatte einzugreifen oder eingreifen/das Auto manuell steuern sogar verboten wäre, wäre das schlicht ungerecht.
Er hat also nur Befehle befolgt?
Hast du, das Auto nicht Starten.
Gut, das bringt hier nichts.
Du musst das Gespräch nicht verweigern nur weil ich gegen dich argumentiere.
Schade, ist ein interessantes Thema.
Aktuell ist der Fahrer immer schuld und zwar weil eine KI bei uns nicht selbstständig fahren darf. Wenn du sie es doch tun lässt bist du deshalb schuld.
Wenn eine selbstfahrende KI voll zugelassen wird und es keine Vorschrift gibt auf dem Fahrersitz weiterhin auf den Verkehr aufzupassen bist du als Fahrer auch nicht mehr schuld. So weit sind wir aber noch lange nicht.
Du hättest ja nicht in Gang setzen müssen. Selbst schuld.
Und genau da bin ich gespannt.
Ich hoffe du darfst noch sehr lange Auto fahren.
Und sorry das ich mich auf das einlasse.
Ich kenne einfach deine Autofahrer feindliche Einstellung und wir kommen hier eh nicht auf einen grünen Zweig. Also können wir es auch lassen.
Dann darfst du dich auch nicht darüber beschweren wenn ohne dich über diese moralische Frage entschieden wird, und du nicht erhört wirst.
Sehe ich aus wie ein Großspender der CDU? Das werde ich auch nicht wenn ich mit dir im Kreis diskutiere.
Mir ging es ja auch eher um meine Aussage, das man immer für den Schwächeren, also zb. Fußgänger, entscheiden sollte wenn es um den Autofahrer oder Schwächeren geht. Das war ja auch das Ausgangsproblem bei diesem ethischen Test.
Je nach Rechtslage bist entweder du als Fahrer verantwortlich oder halt der Softwarehersteller. Derjenige entscheidet in letzter Instant und muss dann auch die Konsequenzen tragen.
Der Einzige Unterschied ist, dass eine KI sich nicht auf Schock/Schrecksekunde berufen kann und alle möglichen Entscheidungen schon vorher am Schreibtisch getroffen werden müssen, weil eine KI nicht entscheiden kann sondern nur tut was einprogrammiert wurde.
Auch eine KI muss bremsen, wenn ein Fußgänger bei rot über die Straße läuft.
Also wenn ein Fußgänger über rot läuft sollte die KI mich in den Gegenverkehr lenken um das Leben des Fußgängers zu retten aber meins damit wahrscheinlich auslöscht oder wie meinst du das?
Und wenn sie es nicht tut sollte ich für den tot des Fußgängers verantwortlich gemacht werden?
Richtig.
Und warum ist das Leben des Fußgängers mehr wert obwohl er in diesem Fall sogar noch Verursacher ist da er sich nicht an die Straßenverkehrsordnung hält?
Das Leben der beiden ist gleich viel Wert. Ich finde nur das der Autofahrer das höhere Risiko tragen sollte.
Und das ist der Grund warum Deutschland immernoch diskutierten wird während der Rest der Welt schon lange autonome Verkehrssysteme hat