ExtruFace
Ein gestengesteuertes Interface für großformatige industrielle Extrusionsmaschinen
Wissenschaftstransferprojekt mit einem Interface, das dynamisch zwischen Nahfeld-Handgesten und Fernfeld-Körpergesten wechselt, abhängig vom Abstand der bedienenden Person. Gestützt auf Fitts'-Law-Analyse und Beobachtung der Arbeitsabläufe.
Überblick
ExtruFace war ein Wissenschaftstransferprojekt, in dem Konzept und Prototyp einer gestengesteuerten Benutzerschnittstelle zur Steuerung von Extrusions-Industriemaschinen entwickelt wurden. Ich habe in allen Projektphasen mitgewirkt: bei der Anforderungsermittlung, Umsetzung und Abnahme.
Die Herausforderung
Extrusionsmaschinen sind mehrere Meter lange, schwere Industriemaschinen zur Rohrformung. Bediener:innen müssen sie teils aus einer gewissen Distanz steuern und tragen häufig Schutzhandschuhe. Die vorhandene Touchscreen-Lösung war daher nicht dauerhaft praktikabel. Zentrale Herausforderungen waren:
- Anpassung moderner UX/UI-Prinzipien an einen Industriemaschinen-Kontext.
- Gestaltung für zwei grundlegend verschiedene Interaktionsmodi: Handgesten im Nahbereich und Körpergesten im Fernbereich.
- Ausbalancieren von Gesten-Innovation mit Bediener-Vertrautheit und Sicherheitsanforderungen.
- Sicherstellung der Zuverlässigkeit in Produktionsumgebungen.
Der Prozess
-
Anforderungsanalyse: Interviews mit Maschinenbediener:innen, um Arbeitsabläufe zu verstehen und zu ermitteln, welche Steuerungselemente in welcher Entfernung benötigt werden.
-
Gestendesign: Erkenntnisse aus meiner Bachelorarbeit flossen maßgeblich in das Gestenvokabular ein; Fernmodus-Gesten wurden in Zusammenarbeit mit den Maschinenbediener:innen gestaltet.
-
Low-Fidelity-Prototyping: Wireframes und Flowcharts zur Darstellung des gesamten Interaktionsablaufs zwischen Nah- und Fernmodus.
-
High-Fidelity-Prototyp: Funktionsfähige Webanwendung, die beide Interaktionsmodi demonstriert.
-
Nutzerevaluation: Test des Prototypen im Laborumfeld mit realen Bediener:innen.
Die Lösung
Zentrale Features, die ich gestaltet und entwickelt habe:
-
Adaptives Interface: UI-Elemente skalieren dynamisch, wenn sich die bedienende Person dem Monitor nähert oder sich entfernt (via Microsoft Kinect Distanzerkennung).
-
Fernmodus: Nur distanzrelevante Steuerungselemente werden angezeigt, Auswahl anhand von Bediener-Interviews; gesteuert über Körpergesten (Armposen), erkannt durch Microsoft Kinect.
-
Nahmodus: Berührungslose Handgestensteuerung via Leap-Motion-Controller für feingranulare Interaktion.
-
Fitts-Gesetz-optimierte Menüs: Kreismenüs zur Minimierung der Entfernung zu Menüoptionen bei Gesteneingabe.
-
Touchscreen-Fallback: Traditionelle Touch-Steuerung als alternative Eingabemethode.
Ergebnisse & Wirkung
- Funktionsfähiger Prototyp als Ideenquelle für die Weiterentwicklung des bestehenden Systems übergeben.
- Nachweis, dass berührungslose Gestensteuerung für industrielle Maschinenbedienung praktikabel ist.
- Das adaptive Nah-/Fernmodus-Konzept löste das Kernproblem der Maschinenbedienung aus unterschiedlichen Entfernungen mit Schutzausrüstung.
Interesse an einer Zusammenarbeit?
Schreiben Sie mir