Android Robotic Child Face erhält mehr Ausdrücke
- Ein Android-Kinderroboter namens Affetto wurde erstmals 2011 eingeführt.
- Forscher haben diesen Roboter verbessert, um menschenähnlichere Gesichtsausdrücke zu erzielen.
- Sie analysierten über 100 Punkte in Afettos Gesicht und fügten eine Vielzahl von Gesichtsausdrücken wie Stirnrunzeln und Lächeln hinzu.
Robotergesichter sind eines der wichtigsten Informationsanzeigegeräte, die Emotionen, Zuneigungen und Absichten mit Verformungen verschiedener Gesichtsteile vermitteln können. Obwohl Roboter in verschiedenen Bereichen eingesetzt wurden, darunter im Vertrieb und im Gesundheitswesen (insbesondere in Japan), bleibt es eine schwierige Herausforderung, einem Robotergesicht einen menschenähnlichen Ausdruck zu verleihen.
Im Jahr 2011 nahmen japanische Wissenschaftler diese Herausforderung an, indem sie ein Android-Kindergesicht namens Affeto entwickelten. Es wurde von der Universität Osaka entwickelt, um beim Erlernen der menschlichen kognitiven Entwicklung durch Robotik zu helfen. Zum Beispiel könnte es Betreuern helfen, ihre Fähigkeiten in der Betreuung von Säuglingen zu verfeinern.
Jetzt haben sie ihren Android-Gesichtsroboter aufgerüstet und ihn auffallend ausdrucksstark gemacht. Sie analysierten sorgfältig die Gesichtsoberflächenpunkte von Affetto und das Ausbalancieren verschiedener Kräfte, um eine humanistische Bewegung zu erhalten. Durch mathematische Modellierung und mechanische Messungen konnten sie die Gesichtsausdrücke von Afetto deutlich verbessern.
Steuerung von Android-Gesichtern mit Oberflächenverformungen
Faktoren wie Materialien, die in der Roboterhaut verwendet werden, Asymmetrie und Reichweite der Gesichtsbewegungen wurden bisher nicht im Detail untersucht. In dieser Arbeit haben die Forscher jeden dieser Faktoren berücksichtigt und eine effektive Methode entwickelt, um Bewegungen weicher Gesichtshaut zu messen und zu kontrollieren.
Sie fanden heraus, dass die Oberflächenverformung eine Schlüsselrolle bei der Handhabung von Robotergesichtern spielt. Sie analysierten mehr als 100 verschiedene Punkte (genauer gesagt 116) auf dem Gesicht des Affetto, um seine Bewegungen in drei Dimensionen zu messen.
Referenz:Grenzen | doi:10.3389/frobt.2018.00119 | Universität Osaka
Die Forscher verwendeten sogenannte Deformationseinheiten, um diese Gesichtspunkte auszuwählen. Jede Einheit enthält eine Gruppe von Mechanismen, die eine einzigartige Gesichtsverzerrung wie das Heben oder Senken eines Augenlids oder einer Lippe erzeugen. Dann fütterten sie diese Messungen in ein mathematisches Modell, um Oberflächenbewegungsmuster zu analysieren.
Mit freundlicher Genehmigung der Forscher | Universität Osaka
Das Modell half ihnen, die synthetische Haut durch Anwenden einer entsprechenden Kraft anzupassen und das System zu verwenden, um die Deformationseinheiten so zu konfigurieren, dass sie die Bewegungen der Gesichtsoberfläche von Affeto präzise steuern.
Bisher waren Android-Gesichter nichts anderes als ein Black-Box-Problem:Diese Roboter wurden zwar realisiert, aber nur allgemein und vage bewertet.
Lesen Sie:15 effiziente Gesichtserkennungsalgorithmen und -techniken
Diese neue Technik kann verwendet werden, um das Gesichtssystem zu erkennen und zu untersuchen und eine Vielzahl von Ausdrucksformen wie Stirnrunzeln und Lächeln einzuführen. Insgesamt ist es eine leistungsstarke Lösung für das Blackbox-Problem der Android-Gesichter.
Industrietechnik
- Weitere Informationen zur AC-"Polarität"
- Steuerung von Robotertransfersystemen mit Laser-Distanzsensoren
- Was hält die Zukunft für das Roboterschweißen bereit?
- Warum kümmern sich Verbraucher nicht mehr um Menschenhandel in der Lieferkette?
- Drei Wege zur Urlaubsvorbereitung angesichts von Problemen in der Lieferkette
- Top 10 der beliebtesten und beliebtesten Roboter-YouTube-Kanäle
- Was ist ein HMI?
- Machen Sie Ihre Maschinenwerkstatt nachhaltiger
- Sind kollaborative Roboter effizienter als Arbeiter?
- Kopfhörer verfolgt Gesichtsausdrücke, sogar mit einer Gesichtsmaske