Die Haut der menschlichen Handfläche enthält mehr als 20.000 Tastbläschen. Je nach Hauttiefe, Aktivierungsschwelle, Auslösemodus und anderen taktilen Signalaufnahmeunterschieden und kreuzsynergistischen Mechanismen kann die Haut verschiedene Arten von taktilen Signalen empfangen. Durch die „Berechnung“ der taktilen Signale im Nervenzentrum des Gehirns können die Objektmerkmale umfassender und spezifischer wahrgenommen werden. Sogar eine taktile visuelle Rekonstruktion der Wahrnehmung ist möglich, d. h. eine Visualisierung der Wahrnehmung basierend auf der Struktur, Form, Textur und anderen Merkmalen des taktilen Objekts. Inspiriert von diesem taktilen Wahrnehmungsmechanismus des Menschen haben taktile Sensoren, die die Funktion der menschlichen Haut simulieren, große Aufmerksamkeit auf sich gezogen. Bisher konnten elektrische Sensoren, die auf den Prinzipien von Widerstand, Piezoelektrizität und Reibungselektrizität basieren, den Tastnerv nachahmen und physikalische Informationen sammeln und verarbeiten, indem sie die Änderung des elektrischen Ausgangssignals des Sensors während des Kontaktvorgangs überwachen. Allerdings weisen elektrische Tastsensoren auch Probleme auf, wie z. B. potenzielle Leckagen, leichte Korrosion, mangelnde Beständigkeit gegen elektromagnetische Störungen, geringe Empfindlichkeit und langsame Reaktionsgeschwindigkeit. Im Gegensatz dazu wird die Verwendung optischer Mittel als Informationsträger zur Realisierung taktiler Sensorik zu einem optionalen und idealen technologischen Weg, der bei faseroptischen Sensoren mit mehreren physikalischen Parametern demonstriert wurde.
Zur Lösung der oben genannten Probleme hat das Team um den assoziierten Forscher Yu Yang von der Micro-Nano Optoelectronics and Intelligent Perception Group der National University of Defense Technology eine optische Mikrofaser-Array-Haut (OMAS) zur Objektformerkennung bei der Mensch-Computer-Interaktion vorgeschlagen. Diese OMAS verwendet eine vierseitige längs- und quergerichtete Mikro-Nanostruktur, um erfolgreich die multifunktionalen taktilen Rezeptoren der menschlichen Fingerspitze oder der Unterhaut zu simulieren und den synergistischen Effekt multitaktiler Rezeptoren in mehreren taktilen Modalitäten zu realisieren (siehe Abb. 1(a)). Um die menschenähnliche multimodale Fähigkeit zur visuellen Rekonstruktion von Berührungen weiter zu realisieren, integrierte das Team OMAS mit dem selbst entwickelten intelligenten Signalverarbeitungsmodul und simulierte die Verarbeitung bioelektrischer Signale durch das menschliche Gehirn mithilfe von maschinellen Lernalgorithmen wie dem Fully-Connected Neural Network-FCNN, das den multifunktionalen Wahrnehmungs- und Raumrekonstruktionsmechanismus der Objektmerkmale wie Form, Härte, Oberflächenstruktur usw. realisierte (siehe Abb. 1(b) und (c)).
Durch Experimente zeigte das Team, dass OMAS als bionische, flexible Tasthaut für Roboter verwendet werden kann, d. h. als multifunktionaler Tastrezeptor fungiert. Wie in Abb. 2 gezeigt, kann OMAS durch Analyse der statischen Druckdaten die Weichheit, Härte und Form der Kontaktobjekte sehr gut ertasten (Druckerkennung von sechs gängigen Objekten mit 100-prozentiger Genauigkeit). Wie in Abb. 3 gezeigt, kann OMAS durch Analyse der Eigenschaften dynamischer Drucktaktilsignale das Material und die Oberflächenstruktur der Kontaktobjekte genau identifizieren (die Erkennungsgenauigkeit von zehn Stoffen liegt bei 98,5 %, und die Erkennungserfolgsrate der zehn Ziffern 0-9 in der international gebräuchlichen Blindenschrift liegt bei 99 %). Als Proof of Concept integrierte das Team OMAS in eine Roboterhand, erkannte erfolgreich Mahjong unter mehreren verschiedenen Objekten und realisierte die Erkennung von Mahjong-Anzügen und die Rekonstruktion der Wahrnehmung. Dadurch wird der Vorteil dieser multiphotonischen bionischen Haut in Bezug auf die vektorielle taktile Wahrnehmung verifiziert, der wichtig ist, um die Erkennung komplexer 3D-Texturen auf der Oberfläche von Objekten zu unterstützen und sogar eine taktile Visualisierung und Rekonstruktionswahrnehmung zu realisieren.
https://www.oejournal.org//article/doi/10.29026/oea.2025.240152
