Laden...

Wie autonome Fahrzeuge die Welt verändern werden

Erstellt von herbivore vor 12 Jahren Letzter Beitrag vor 6 Jahren 38.031 Views
herbivore Themenstarter:in
49.485 Beiträge seit 2005
vor 9 Jahren

Hallo Jörg,

das Thema "Roboterethik" ist wirklich spannend und gleichzeitig skurril, wenn man verschiedene Einzelfall-Situationen und Varianten durchspielt und sich dabei auf moralische Zwiespälte konzentriert. Ich habe das in meinen Startbeitrag im Abschnitt "Wie können autonome Fahrzeuge mit ethischen Fragen umgehen?" nur angerissen und konstatiert, dass man mit dem Thema "einen eigenen Thread füllen könnte", vermutlich sogar mehrere, ich aber "kein prinzipielles Problem sehe".

Der verlinkte Artikel versucht, auf den Aspekt "Klein- oder Geländewagen" oder "Motorradfahrer mit oder ohne Helm" zu fokussieren. Das verstellt ein bisschen den Blick dafür, dass in eine solche Entscheidung wesentlich mehr Informationen einbezogen können und werden: Abstand nach vorne und zur Seite, Differenzgeschwindigkeit, Differenzbeschleunigung, eigener Winkel zu den anderen Fahrzeugen, berechneter Aufprallwinkel, eigener momentaner Lenkeinschlag, Fahrbahnbeschaffenheit auf beiden Kollisionsrouten, überhaupt der weitere Straßenverlauf z.B. in Kurven, Hindernisse auf dem Weg, den die Autos nach der Kollision nehmen werden usw. Kaum vorstellbar, dass die alle exakt gleich sind bzw. so sehr ausgleichen, dass am Ende nur bzw. ganz überwiegend ein moralisch heikles Gegensatzpaar den Ausschlag gibt.

Natürlich ist es aus persönlicher Sicht tragischer, wenn statt Unbekannten man selbst oder Angehörige aufgrund der Entscheidung der Entwickler zu Schaden kommen. Die stecken allerdings sowieso im Dilemma, denn egal welchen Verlauf der Unfall aufgrund der Software nimmt: Die Geschädigten werden immer dazu neigen, die Entscheidung als falsch anzusehen. Daher wird es sicher zu Prozessen kommen. Und die Gerichte und vermutlich auch der Gesetzgeber wird Leitlinien entwickeln müssen und das auch tun. Am Ende wird reduziert sich die Frage, was das moralisch beste gewesen wäre, auf die Frage, ob die Software innerhalb der herausgebildeten Leitlinien gehandelt hat.

herbivore

herbivore Themenstarter:in
49.485 Beiträge seit 2005
vor 9 Jahren

Hallo zusammen,

ich bin gerade auf den Artikel Selbstfahrende Autos: Google baut ein eigenes Auto. Der Unterschied zu früheren Artikeln über Google Driverless Car ist, dass nun nicht mehr Serienfahrzeuge umgerüstet werden, sondern von Grund auf ein eigenes Fahrzeug entworfen wurde, wenn zunächst auch nur als Prototyp.

Der Prototyp sieht kindlich verspielt aus. Und auch noch etwas plump. In dieser Form sicher nicht so ganz ernstzunehmen. Aber es passiert, was ich sagte: Die Autos passen sich in ihrer Form an die Besonderheiten des autonomen Fahrens an. Das Auto hat weder Lenkrad noch Bremse. Aber die wurden nicht einfach aus ihrer ursprünglichen Position entfernt, sondern der gesamte Innenraum hat ganz andere Proportionen als bei einem normalen Auto. Zum Beispiel sitzen die Personen viel weiter vom Armaturenbrett (das keine Armaturen hat) entfernt.

Das zugehörige Video A First Drive sich sicher Promotion, und es möglicherweise ist viel davon gestellt, ich weiß es nicht. Auf mich wirkt es doch eher echt und so, als hätten die Leute wirklich riesigen Spaß daran. So oder so machen die Leute einen sehr ausgelassen, freudig und vollkommen angstfreien Eindruck.

Nett fand ich die Stelle, an der das alte Ehepaar darüber spricht, dass das Auto so in die Kurven fährt, wie die Ehefrau es von ihrem Ehemann die ganzen Jahre (anscheinend erfolglos) gewollt hat.

herbivore

6.911 Beiträge seit 2009
vor 9 Jahren

Hallo zusammen,

rechtlich gesehen kommt - zumindest in Kalifornien - Fahrt in die Sache: California to Issue Driving Licenses to Robots

mfG Gü

Stellt fachliche Fragen bitte im Forum, damit von den Antworten alle profitieren. Daher beantworte ich solche Fragen nicht per PM.

"Alle sagten, das geht nicht! Dann kam einer, der wusste das nicht - und hat's gemacht!"

3.170 Beiträge seit 2006
vor 8 Jahren

Hallo zusammen,

um hier mal auf dem aktuellen Stand zu bleiben (und ggf. die Diskussion nochmal etwas voranzutreiben): nun sind schon die ersten Unfälle der Google-Autos bekannt geworden:

Unfall - auch ohne Fahrer möglich

Gruß, MarsStein

Non quia difficilia sunt, non audemus, sed quia non audemus, difficilia sunt! - Seneca

16.806 Beiträge seit 2008
vor 8 Jahren

Dann kannst auch erwähnen, dass alle 11 Unfälle von Google Fahrzeugen nach 2,7 Millionen Kilometer durch menschliches Versagen anderer verursacht wurden. 😜
Deswegen finde ich dein "schon" im Satz etwas falsch 😉

3.170 Beiträge seit 2006
vor 8 Jahren

Hallo Abt,

das war aber gar nicht wertend gemeint - ist dann wohl falsch rübergekommen 🤔
Dass die Fahrzeuge nicht Schuld waren, steht ja im verlinkten Artikel...

Gruß, MarsStein

Non quia difficilia sunt, non audemus, sed quia non audemus, difficilia sunt! - Seneca

O
79 Beiträge seit 2011
vor 8 Jahren

Unter den elf Kollisionen sind allein sieben Auffahrunfälle - und dagegen, schreibt Google-Manager Urmson, könne derjenige, auf den der Hintermann auffährt, nur wenig tun. Das Problem hat ein computergesteuertes Auto natürlich genauso wie jeder menschliche Fahrer.

Verzeihung, aber da liegt der Google-Manager falsch. Natürlich gibt es eine Gegenmaßnahme gegen Auffahrunfälle. Nennt sich Sicherheitsabstand.

Nichtsdestotrotz ist die Leistung dieser autonomen Fahrzeuge echt beeindruckend.

112 Beiträge seit 2008
vor 8 Jahren

Und wie erhöhe ich den Sicherheitsabstand als derjenige, auf den der Hintermann auffährt? Schneller fahren? 🤔

1.696 Beiträge seit 2006
vor 8 Jahren

Verzeihung, aber da liegt der Google-Manager falsch. Natürlich gibt es eine Gegenmaßnahme gegen Auffahrunfälle. Nennt sich Sicherheitsabstand.

Verzeihung, aber kannst du bzw. der Autopilot des vorderen Fahrzeug das Verhalten von dem Hintermann/frau überhaupt beeinflussen? Wenns von hinten drauf knallt, da kann man aber absolut nichts machen.

Ich bin verantwortlich für das, was ich sage, nicht für das, was du verstehst.

**:::

P
1.090 Beiträge seit 2011
vor 8 Jahren

Naja man kann kurz in die Bremse gehen und dann wieder Gas geben. Oder man fährt so langsam, das der Andere überholt. Das kann aber den anderen Verkehrsteilnehmer zu einen Unfall verleiten, ob das Ziel einer Software sein sollte halte ich für Fragwürdig.

Ich denke, das man die aktuelle Testphase als durchaus erfolgreich bezeichnen kann.

Sollte man mal gelesen haben:

Clean Code Developer
Entwurfsmuster
Anti-Pattern

1.696 Beiträge seit 2006
vor 8 Jahren

Ähm, mir ist schon mal passiert, dass ich wegen Stau auf der Autobahn scharf bis zum stehend bremsen muss, danach kann ich nur noch zu sehen wie der Hintermann voll auf meinem Wagen drauf knallt, da gibt 's keine Möglichkeit, irgendwie auszuweichen. Soviel zu Auffahrtunfall.

Ich bin verantwortlich für das, was ich sage, nicht für das, was du verstehst.

**:::

herbivore Themenstarter:in
49.485 Beiträge seit 2005
vor 6 Jahren

Hallo zusammen,

die Bundesverkehrsminister Alexander Dobrindt eingesetzte Ethik-Kommission zum automatisierten Fahren hat gestern ihren Bericht vorgelegt. Darin werden fünfzehn zwanzig ethische Regeln für den automatisierten und vernetzten Fahrzeugverkehr aufgestellt. Einige davon betreffen auch die in diesem Thread angesprochen ethischen Probleme in sog. Dilemmasituationen, also Situationen, in denen ein Unfall unvermeidlich ist, das Fahrzeug aber noch Einfluss darauf nehmen kann, welche der verschiedenen möglichen Unfallfolgen eintreten, z.B. ob das autonome Fahrzeug gegen einen stehenden LKW oder einen Fußgänger fahren soll. Hier gibt es naturgemäß moralische Probleme sowie ganz praktische Interessenkonflikte.

Ich finde, die von der Kommission hierzu aufgestellten Regeln gut gelungen. Natürlich können Sie nicht alle Probleme auflösen, aber sie entschärfen sie doch zu mindestens so gut es überhaupt geht.

Es fängt damit an, dass laut Regel 1 "Teil- und vollautomatisierte Verkehrssysteme [...] zuerst der Verbesserung der Sicherheit aller Beteiligten im Straßenverkehr [dienen]." Das wird in Punkt 2 [hab ich hier nicht zitiert] und vor allem in Punkt 5 noch konkretisiert:

5. Die automatisierte und vernetzte Technik sollte Unfälle so gut wie praktisch möglich vermeiden. Die Technik muss nach ihrem jeweiligen Stand so ausgelegt sein, dass kritische Situationen gar nicht erst entstehen, dazu gehören auch Dilemma-Situationen, also eine Lage, in der ein automatisiertes Fahrzeug vor der „Entscheidung“ steht, eines von zwei nicht abwägungsfähigen Übeln notwendig verwirklichen zu müssen. Dabei sollte das gesamte Spektrum technischer Möglichkeiten – etwa von der Einschränkung des Anwendungsbereichs auf kontrollierbare Verkehrsumgebungen, Fahrzeugsensorik und Bremsleistungen, Signale für gefährdete Personen bis hin zu einer Gefahrenprävention mittels einer „intelligenten“ Straßen-Infrastruktur – genutzt und kontinuierlich weiterentwickelt werden. Die erhebliche Steigerung der Verkehrssicherheit ist Entwicklungs- und Regulierungsziel, und zwar bereits in der Auslegung und Programmierung der Fahrzeuge zu defensivem und vorausschauendem, schwächere Verkehrsteilnehmer ("Vulnerable Road Users") schonendem Fahren.

Das entscheidende zu den Dilemmasituationen, die sich trotzdem alle dem nicht ganz vermeiden lassen werden, steht dann in den Punkten 7 und 9:

7. In Gefahrensituationen, die sich bei aller technischen Vorsorge als unvermeidbar erweisen, besitzt der Schutz menschlichen Lebens in einer Rechtsgüterabwägung höchste Priorität. Die Programmierung ist deshalb im Rahmen des technisch Machbaren so anzulegen, im Konflikt Tier- oder Sachschäden in Kauf zu nehmen, wenn dadurch Personenschäden vermeidbar sind.

9. Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt. Eine Aufrechnung von Opfern ist untersagt. Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein. Die an der Erzeugung von Mobilitätsrisiken Beteiligten dürfen Unbeteiligte nicht opfern.

So sehr man auch geneigt ist, Überlegungen anzustellen, dass das Leben eines Kindes aus verschiedenen Gründen als schützenswerter einzuschätzen sein könnte als das Leben eines Schwerkranken in der letzten Lebensphase, halte ich das Verbot einer solchen Abwägung für gut und richtig. Es folgt nicht zuletzt aus dem Gleichheitsgrundsatz des Grundgesetzes.

Richtig und wichtig finde ich auch die Klarstellung, dass der Kunde, der ein autonomes Fahrzeug kauft und bezahlt, sich damit nicht das Recht erkaufen kann, dass der Hersteller ihn als Insassen besser schützt als die (möglicherweise vollkommen unschuldigen) anderen Unfallbeteiligen. Insbesondere das ein autonome Fahrzeug nicht per se statt gegen den eingangs genannten LKW lieber gegen den Fußgänger fahren darf, weil dann der Aufprall für die Insassen glimpflicher verläuft.

In dem eben ausgelassenen Punkt 8 geht es eher um rechtstheoretische Fragen und eine ganz praktischen Konsequenz, nämlich um eine Aufsichtsbehörde, die die in der Praxis gesammelten Erfahrungen in zukünftige Leitlinien für die Programmierung einfließen lassen soll. Auch das finde ich sinnvoll, denn in diesem so grundsätzlichen neuen Gebiet kann man nämlich einfach nicht alles voraussehen und damit eben auch nicht alles vorab theoretisch behandeln.

8. Echte dilemmatische Entscheidungen, wie die Entscheidung Leben gegen Leben sind von der konkreten tatsächlichen Situation unter Einschluss „unberechenbarer“ Verhaltensweisen Betroffener abhängig. Sie sind deshalb nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar. Technische Systeme müssen auf Unfallvermeidung ausgelegt werden, sind aber auf eine komplexe oder intuitive Unfallfolgenabschätzung nicht so normierbar, dass sie die Entscheidung eines sittlich urteilsfähigen, verantwortlichen Fahrzeugführers ersetzen oder vorwegnehmen könnten. Ein menschlicher Fahrer würde sich zwar rechtswidrig verhalten, wenn er im Notstand einen Menschen tötet, um einen oder mehrere andere Menschen zu retten, aber er würde nicht notwendig schuldhaft handeln. Derartige in der Rückschau angestellte und besondere Umstände würdigende Urteile des Rechts lassen sich nicht ohne weiteres in abstrakt-generelle Ex-Ante- Beurteilungen und damit auch nicht in entsprechende Programmierungen umwandeln. Es wäre gerade deshalb wünschenswert, durch eine unabhängige öffentliche Einrichtung (etwa einer Bundesstelle für Unfalluntersuchung automatisierter Verkehrssysteme oder eines Bundesamtes für Sicherheit im automatisierten und vernetzten Verkehr) Erfahrungen systematisch zu verarbeiten.

Ich hatte ja schon in vorangegangenen Beiträgen geschrieben, dass ich Dilemmasituationen aus verschiedenen Gründen für gar nicht so problematisch halte, wie sie oft hingestellt werden. Verbleibende Probleme werden aus meiner Sicht durch die Regeln der Kommission sehr akzeptabel behandelt. Auch und gerade dadurch, dass bestimmte Abwägungen explizit ausgeschlossen werden.

herbivore

PS: Siehe dazu auch die BMVI-Pressemitteilung: Ethik-Kommission zum automatisierten Fahren legt Bericht vor

Am Ende der Pressemitteilung findet sich ein Link auf den kompletten Abschlussbericht als PDF.

6.911 Beiträge seit 2009
vor 6 Jahren

Hallo zusammen,

es ist gut dass von politischer Seite das Thema proaktiv angegangen wird, denn die Politik ist gefordert die passenden (gesetzlichen) Rahmenbedingungen für autonomes Fahren zu schaffen.

Die Regeln finde ich auch gelungen und auch dass der Leiter der Kommission, Prof. Dr. Dr. Di Fabio, sinngemäß anmerkte dass die Regeln nicht statisch sind, sondern sich mit dem Stand der Technik (v.a. der Kommunikation) mitentwickeln sollen.

mfG Gü

Stellt fachliche Fragen bitte im Forum, damit von den Antworten alle profitieren. Daher beantworte ich solche Fragen nicht per PM.

"Alle sagten, das geht nicht! Dann kam einer, der wusste das nicht - und hat's gemacht!"