Derzeit sind selbstfahrende Autos immer wieder in den Medien. Google Experimentiert seit einiger Zeit damit im Großraum San Francisco, und es gibt auch immer wieder Unfälle, die laut Angaben von Google von den gegnerischen Fahrzeugen verursacht werden.
Diese Fahrzeuge werden von Computern gesteuert, die über Sensoren die Umwelt abtasten. Damit muss man den Fahrzeugen auch Inteligenz beibringen. Die Fahrzeuge müssen die Fahrbahn, andere Fahrzeuge, Verkahrsampeln, Radfahrer, Fußgänger, etc. erkennen und entsprechend reagieren.
Wenn es aber zu einer unvorhergesehenen Situation kommt, dann wird es knifflig. Genauso wie ein Autolenker muss das Fahrzeug wenn sich eine Kollision nicht mehr vermeiden lässt eine Entscheidung treffen. Und wenn es bei dieser Kollission um Leben oder Tod geht, dann wird die Entscheidung knifflig. Soll das Fahrzeug versuchen das Leben der Autoinsassen zu schützen, oder soll es eher versuchen die Anzahl der Verletzten oder zu befürchtenden Toten ingsesamt zu “optimieren”. Eine ethische Entscheidung die von einem Algorithmus getroffen werden muss.
Dazu der entsprechende Artikel im MIT Tech Review
Why Self Driving Cars Must Be Programmed To Kill
- Über den Autor
- Artikel
Werner Illsinger ist systemischer Coach, Unternehmensberater sowie Lektor an der FH-Kärnten. Sein Herzensanliegen ist es, dass Arbeit Spaß macht.
Wer haftet dann vor dem Straf-/Zivil-Richter?
Wer kommt für Schäden auf?
Wer wird „eingebuchtet“?
Der passive Fahrer?
Der Autobesitzer?
Der Hersteller?
Der Verkäufer oder die Servicestelle?
Oder der/die Programmierer?
http://derstandard.at/2000025651844/Googles-Roboter-Auto-fuer-zu-langsames-Fahren-gestoppt
Googles Roboterauto für zu langsames Fahren gestoppt
˅˅˅˅
Computer eher mit defensivem Fahrstil und nur 39 km/h unterwegs
Ein selbstfahrendes Auto von Google ist in Kalifornien von der Polizei gestoppt worden, weil es zu langsam unterwegs war. Einem Beamten sei aufgefallen, dass sich hinter einem Fahrzeug der Verkehr aufstaute, erläuterte die Polizei der Google-Heimatstadt Mountain View in einem Blogeintrag. Der Auslöser sei eines der Roboterautos von Google gewesen.
…
˄˄˄˄˄
Genau dieser defensive (dafür aber sichere) Fahrstil war – wenn auch vielleicht bei doch etwas höheren Geschwindigkeiten – zu erwarten. Und genau dieser Fahrstil ist vermutlich auch der Grund dafür, warum bisher immer nur andere Fahrzeuge – und nicht die autonom fahrenden – an Verkehrsunfällen “schuld” waren. Diese Fahrzeuge fahren offensichtlich zu langsam, beschleunigen im Kreuzungsbereich daher vermutlich auch nicht in gleichem Maße, wie von “normalen” Fahrern erwartet – und tragen somit (auch) selbst zu erhöhtem Unfallrisiko bei. Zumindest diese Einschätzung ( als mögliche Folge der Verkehrsbehinderung ) wurde hier nun offenbar auch von der Polizei in Kalifornien geteilt.
Bin schon gespannt, wann es die ersten Meldungen über das Verhalten dieser Fahrzeuge bei echtem Schlechtwetter ( schwerer Regen Schneestürme, Glatteis , nasses Laub auf der Fahrbahn , starke Querwinde ) gibt. Zumindest theoretisch müssten dann diese ( autonomen) Fahrzeug sogar – wegen besonders schlechtem Wetter – fallweise gar nicht starten oder sogar auf der zurückzulegenden Strecke – vor Erreichen des gewünschten Zieles – die Fahrt einstellen . Was aber dann, irgendwo im “Nirgendwo” eines US-Bundesstaates ? Oder gar bei uns, auf irgendeiner Passstraße im dichten Scheegestöber ?
Man wird ja sehen …