Was beeinflusst die menschliche Wahrnehmung von Cobots?
In Zukunft könnten Roboter nicht nur hinter Zäunen in Produktionshallen versteckt, sondern in enger zeitlicher und räumlicher Nähe interdependent mit Werker*innen kollaborieren. Vorteile von dieser Zusammenarbeit verspricht man sich beispielsweise in Verbesserungen der Arbeitsorganisation, Ergonomie, Produktivität und Qualität.
Neben der technischen Weiterentwicklung und wirtschaftlichen Betrachtungen müssen bei der Entwicklung und Implementierung verschiedene Komponenten des menschlichen Faktors unbedingt beachtet werden. Die psychologische Forschung widmet sich auf diesem Gebiet unter anderem folgenden Fragen: Was passiert, wenn die Versprechen vom flexiblen, unfehlbaren Roboter nicht eingehalten werden können? Was passiert, wenn der Roboter doch nicht so unermüdlich ist?
Die erfolgreiche Einführung von Cobots wird maßgeblich von der positiven Wahrnehmung, Akzeptanz und Vertrauen gegenüber ihnen beeinflusst. Um die Wirkung von Cobots auf technikversierte Menschen zu evaluieren, haben wir an der TU Berlin eine Studie durchgeführt und Sie über den vdi.de-Blog um Ihre Meinung gebeten.
Was wurde untersucht?
Ziel der Studie war es, in einem sicheren Rahmen den Einfluss von Fehlererfahrungen und Informationen über den Cobot und den Arbeitsprozess auf die menschliche Wahrnehmung von, Akzeptanz in und das Vertrauen gegenüber Cobots im industriellen Kontext zu untersuchen. In der Online-Studie wurde jede*r Teilnehmer*in zufällig einer von vier Gruppen zugeordnet:
- Roboter funktioniert fehlerfrei und es gibt keine zusätzlichen Informationen oder
- Roboter funktioniert fehlerfrei und es gibt zusätzliche Informationen,
- Roboter macht insgesamt zwei Fehler im Montageprozess und es gibt keine zusätzlichen Informationen oder
- Roboter macht insgesamt zwei Fehler im Montageprozess und es gibt zusätzliche Informationen.
Basierend auf dieser Zuteilung sahen sie je ein Video, welches eine simulierte Mensch-Roboter-Kollaboration mit einem Cobot im Kontext der manuellen Montage zeigte. Anschließend beurteilten die Teilnehmer*innen den Roboter hinsichtlich wahrgenommener Sicherheit, wahrgenommener Intelligenz, Sympathie, Akzeptanz und Vertrauen.
Insgesamt wurden die Daten von 124 Teilnehmer*innen ausgewertet. Durchschnittlich waren die Teilnehmer*innen 31 Jahre (+/- 10 Jahre) alt und 71% von ihnen waren männlich. Die allgemeinen Einstellungen gegenüber Technik und Robotern waren positiv und 82 % hatten bereits Erfahrung mit Robotern. Die Daten der Beurteilung wurden mittels Zwischensubjekt-Varianzanalysen ausgewertet. Es zeigte sich ein negativer Effekt von Fehlern auf die wahrgenommene Intelligenz des Roboters, Sympathie, Akzeptanz und Vertrauen. Informationen hatten in dieser Studie einen positiven Effekt auf die wahrgenommene Sicherheit und die wahrgenommene Intelligenz – unabhängig davon, ob Fehler durch den Roboter gezeigt wurden oder nicht. Schaut man nun auf die Interaktion von Fehlererfahrung und Informationen, zeigt sich, dass der Effekt von Fehlern auf das Vertrauen bei Robotern mit geringer Informationsgabe stärker ausgeprägt war als bei den fehlerhaften Robotern mit mehr Informationen. Mehr Informationen führten bei fehlerfreien Robotern zu geringerem Vertrauen. Weiterhin sahen die Teilnehmer*innen den Cobot tendenziell eher als Werkzeug und nicht als Kollegen. Zusätzliche qualitative Aussagen der Teilnehmer*innen deuten darauf hin, dass weitere technische und menschliche Faktoren, wie z.B. Systemspezifikationen und Monotonie, die Einstellungen gegenüber Cobots beeinflussen könnten.
Welche Erkenntnisse lassen sich aus der Studie ableiten?
Die Studie deutet also darauf hin, dass Fehler von Cobots im industriellen Kontext vermieden werden sollten. Denn treten Fehler auf, kann dies die reibungslose kollaborative Zusammenarbeit von Menschen und Robotern aufgrund von negativer Wahrnehmung, geringerem Vertrauen und weniger Akzeptanz stören. Die Bereitstellung von gut ausgewählten Informationen könnten diesem Effekt entgegenwirken. Sie könnten auch auf zukünftige Fehler hinweisen, um ein übermäßiges Vertrauen zu verhindern.
Neben der allgemeinen Einweisung sollten Informationen aus folgenden Bereichen bekannt sein: Technik (z.B. genutzte Sensorik und Aktorik sowie Details bezüglich der Programmierung), Sicherheit (z.B. Verhalten und Back-up-Systeme bei Fehlern), Arbeitsorganisation (z.B. Arbeitsschritte, Veränderungen der menschlichen Tätigkeit). Für gesicherte Aussagen ist allerdings noch umfangreichere Forschung in diesem Gebiet notwendig. Vielversprechende Ansatzpunkte dafür finden sich z.B. in realer und längerer Kollaboration sowie weiteren Messvariablen (Leistungs- und Aufmerksamkeitsmessung).
Hinweis: Der VDI-Bezirksverein Frankfurt-Darmstadt e.V. unterstützte die TU Berlin bei diesem Projekt. Im Zuge dessen gab es einen Aufruf zur Studienteilnahme über vdi.de.
Autorin: Lina Kluy, M. Sc., Karlsruher Institut für Technologie, ifab