Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Psychologe zu selbstfahrenden Autos: „Der Sicherheitsgurt von mor…
> Etwas Skepsis sei angebracht angesichts der Entwicklung zum
> softwaregesteuerten Fahren, sagt Martin Baumann. Auch die Autohersteller
> müssten umdenken.
Bild: Die Erwartungen an Software höher als an den Menschen
taz: Herr Baumann, kürzlich ist der erste tödliche Unfall von einem
softwaregesteuerten Auto bekannt geworden. Würden Sie sich in ein solches
Fahrzeug setzen?
Martin Baumann: Ja. Allerdings mit der gleichen Skepsis, mit der ich mich
vorher schon reingesetzt hätte. Und mit dem deutlichen Bedürfnis, das, was
das Auto macht, zu überwachen.
Die Idee des selbst fahrenden Autos wird vor allem mit dem Argument
Verkehrssicherheit beworben. Ist es realistisch, dass Software weniger
Unfälle produziert als ein Mensch?
In bestimmten Bereichen ist es heute schon möglich, die Automation sehr
sicher zu gestalten. Wir sehen das etwa bei den Einparkhilfen. Wie sicher
die Systeme sein werden, hängt allerdings stark von der technologischen
Entwicklung ab. Unter anderem davon, wie gut die Interaktion zwischen
Fahrzeug und Fahrer funktioniert.
Interaktion?
Es wird noch eine ganze Weile dauern, bis die Software die Fähigkeiten des
Menschen erreicht. Bis das der Fall ist, muss das Fahrzeug den Fahrer in
der Aufgabe halten. Ihn also darauf hinweisen, dass er eingreifen muss,
oder ihm das Feedback geben, dass es sich beispielsweise bei der
Wahrnehmung der Umwelt nicht sicher ist.
In dem Fall in den USA hätte das System also melden sollen, dass die Kamera
hier ein hoch hängendes Schild wahrnimmt, und fragen, ob das stimmt?
Zum Beispiel. So eine Rückfrage könnte etwa kommen, wenn das System ein
Objekt wahrnimmt, das an dieser Stelle eher unplausibel erscheint.
Problematisch wird es natürlich dann, wenn das System nicht erkennt, dass
es einen Fehler macht.
Was ist der Sinn eines softwaregesteuerten Autos, wenn der Mensch beim
Fahren doch überwachen muss?
Das muss er immerhin nicht mehr die ganze Zeit. Tätigkeiten, bei denen er
gedanklich schnell wieder in die Umwelt zurückkehren kann, sollten dann
beim Fahren gehen. Die Herausforderung wird sein: Wie bekommt man den
Fahrer jetzt am besten und am schnellsten dazu, dass er wieder seine Umwelt
wahrnimmt?
Ist das bei Autobahngeschwindigkeit überhaupt möglich?
Hohe Geschwindigkeiten sind tatsächlich ein Problem. Die Google-Autos sind
etwa mit 25 Meilen pro Stunde unterwegs, da geht so etwas schon. Aber
höhere Geschwindigkeiten werden spätestens dann möglich, wenn die Sensorik
des Fahrzeugs sehr weit voraussehen kann oder es eigene Fahrspuren für die
automatisierten Fahrzeuge gibt.
Bei eigenen Fahrspuren würden sich die Autos aber nicht nur auf Sensoren
verlassen, sondern auch untereinander kommunizieren?
Genau. Dadurch könnten sie sich rechtzeitig warnen, etwa bei einem
Stauende.
Welche Situationen sind denn für die Softwaresteuerung schwierig?
Komplexe Situationen, wie wir sie gerade im Stadtverkehr haben, sind nicht
einfach zu erfassen. Viele unterschiedliche Verkehrsteilnehmer, die in
unterschiedliche Richtungen unterwegs sind und sich dabei stellenweise
verdecken zum Beispiel. Oder Gesten von Menschen, ein Rüberwinken etwa, das
geht noch nicht.
Bei dem Unfall in den USA ging es hinterher vor allem um die Frage, ob der
Fehler einem Menschen nicht passiert wäre.
Es wird nie ein absolut sicheres System geben. Das ist nicht möglich.
Selbst in hoch redundant angelegten Systemen wie in Atomkraftwerken treten
Fehler auf. Die Frage darf also nicht sein: Schafft die Technik eine
Fehlerquote von null? Sondern: Ist sie besser als der Mensch? Damit wird
die Automatisierung so etwas wie der Sicherheitsgurt von morgen. Es gibt
ganz wenige Unfallsituationen, da schadet er. Aber in fast allen
Situationen rettet er Leben.
Warum sind die Erwartungen an Software höher als an den Menschen?
Weil wir bei Menschen wissen, dass sie Fehler machen. Wir haben in
Deutschland jährlich mehrere tausend Verkehrstote, die Unfälle sind ganz
überwiegend auf menschliches Versagen zurückzuführen. Dass die Erwartungen
an die automatisierte Steuerung so hoch sind, liegt aber auch am Marketing
von Herstellern wie Tesla, die perfekte Software suggerieren.
Was sollten die Hersteller anders machen?
Es gibt Untersuchungen, die das Vertrauen von Fahrern in Software messen.
Sie zeigen: Wenn der Fahrer ein realistisches Bild bekommt von dem, was die
Software kann, dann hat er Vertrauen und akzeptiert dennoch den ein oder
anderen Fehler. Wird dagegen ein idealisiertes Bild vermittelt, hat der
Fahrer zwar zunächst Vertrauen. Passiert aber der erste Fehler, gibt es
einen deutlichen Vertrauensverlust. Das können die Hersteller auch nicht
wollen.
18 Jul 2016
## AUTOREN
Svenja Bergt
## TAGS
Selbstfahrendes Auto
Autos
Intelligente Maschinen
Straßenverkehr
Wir retten die Welt
Versicherung
Unfälle
Hamburg
Fahrrad
Selbstfahrendes Auto
Roboter
Datenschutz
BMW
Selbstfahrendes Auto
Daimler
Verkehr
## ARTIKEL ZUM THEMA
Wenn Software Entscheidungen trifft: Verwirrte Algorithmen
Menschen sind oft unglaublich berechenbar – aber ganz plötzlich dann wieder
nicht. Das macht es manchmal ganz schön kompliziert.
Unfallforscher über Verkehrssicherheit: „Mehr Regen macht weniger Unfälle“
Die Zahl der Verkehrstoten ist so niedrig wie seit 60 Jahren nicht.​ Der
Unfallforscher Siegfried Brockmann erklärt, woran das liegt.
Unfälle an Bahnübergängen in Niedersachsen: Schrankenlos gefährlich
Allein in Niedersachsen sind seit Ende 2016 zwei Menschen an Bahnübergängen
gestorben. Der Verkehrsclub VCD fordert nun überall Schranken. Unnötig,
sagt der ADAC.
Tödlicher Verkehrsunfall vor 25 Jahren: Ein Unfall zeigt Wirkung
Die Stresemannstraße in Hamburg ist eine Hauptverkehrsstraße, auf der Tempo
30 gilt. Vor 25 Jahren wurde dort die neunjährige Nicola S. überfahren
Studie zu Verkehrsklima in Deutschland: Chaotisch, aber sicher
Trotz steigender Unfallzahlen fühlen sich die Deutschen im Straßenverkehr
sicherer. Die Aggressivität ist vor allem in Städten hoch.
Kommentar Selbstfahrende Autos: Niemand will es gewesen sein
Bisher ist die Schuldfrage bei Unfällen einigermaßen überschaubar. Wenn die
Software am Steuer sitzt, wird es viel komplizierter.
Erster Todesfall mit selbstfahrendem Auto: US-Verkehrsaufsicht prüft Tesla
Es ist der erste Todesfall in einem Auto, das von einem Computer gesteuert
wurde. Das System konnte in hellem Licht einen weißen LKW-Anhänger nicht
erkennen.
Selbstfahrende Autos und Datenschutz: Keine Angst vor dem Autopiloten
Die Angst vor Unfällen mit selbstfahrenden Autos ist übertrieben. Worum wir
uns kümmern müssen, ist die Sicherheit unserer Daten.
Autobauer kaufen Nokia-Kartendienst: Autonome Navigation vom Hersteller
Der Kartendienst Here bekommt drei neue Eigentümer: Audi, BMW und Daimler.
Die wollen damit selbstfahrenden Autos den Weg ebnen.
Internet der Dinge: Aufs Google-Auto aufgefahren
Auch selbst fahrende Pkws sind nicht vor Unfällen gefeit. Doch die
Hersteller sagen: Schuld daran sind die anderen Fahrer.
Neue Mobilität: Daimlers Luxus-Lounge auf Rädern
Der deutsche Autokonzern stellt eine selbstfahrende Limousine vor. Sie soll
den Reichen der Welt Privatsphäre im Straßenverkehr bringen.
Roboterfahrzeuge in Kalifornien: Auto auf Autopilot
Von wegen Science Fiction – nun dürfen Mercedes, Audi und Google ihre
fahrerlosen Autos auch im Straßenverkehr Kaliforniens testen.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.