Christian NißlerEnvironment- and Self-Modeling through Camera-Based Pose Estimation | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ISBN: | 978-3-8440-7048-4 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Series: | Fortschritte der Robotik/Progress in Robotics Herausgeber: Prof. Dr.-Ing. Ulrike Thomas Chemnitz | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Volume: | 2 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Keywords: | Pose Estimation; Calibration; Camera-Camera Calibration; Localization; Hand-Eye Calibration | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Type of publication: | Thesis | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Language: | English | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Pages: | 234 pages | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Figures: | 63 figures | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Weight: | 347 g | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Format: | 21 x 14,8 cm | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Binding: | Paperback | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Price: | 49,80 € / 62,30 SFr | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Published: | December 2019 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Buy: | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Download: | Available PDF-Files for this title: You need the Adobe Reader, to open the files. Here you get help and information, for the download. These files are not printable.
User settings for registered users You can change your address here or download your paid documents again.
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Recommendation: | You want to recommend this title? | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Review copy: | Here you can order a review copy. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Link: | You want to link this page? Click here. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Export citations: |
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Abstract: | Environments, in which robots can assist humans both in production tasks as well as in everyday tasks, will demand advanced capabilities of these robotic systems of cooperating with humans and other robots. To achieve this, robots should be able to navigate and manipulate in dynamic environments safely. As such, it is essential that a robot can accurately determine its pose (i.e., its position and orientation) in the environment based on optical sensors. However, both the map of the robot’s surrounding as well as its sensors can contain inaccuracies, which can cause problematic consequences. The work presented here focuses on this issue by introducing several novel computer vision-based methods. These approaches lead to a set of challenges which are addressed in this thesis. These are:
To answer the second question, a method is introduced, with which a highly accurate model of a robot’s environment can be created. A significant advantage of this method is that it can run in parallel and doesn’t need either particular movements of the robot nor requirements on the type of camera images used. Extending this to the third question, it is demonstrated that simultaneously to obtaining a model of the surroundings, an internal model can be obtained employing similar approaches. An important benefit of all these methods is that they are based solely on optical sensors, namely on cameras and depth sensors. This makes these approaches very easy and cost-effective to apply to a robotic system. The introduced methods are experimentally evaluated throughout this thesis employing different mobile robotic systems, ranging from industrial manipulators to humanoid robots. Going beyond traditional robotics, this work examines how the presented methods can also be applied to human-machine interaction. It shows, that by solely visually observing the movement of the muscles in the human forearm and by employing machine learning methods, the corresponding hand gestures can be determined, opening entirely new possibilities in the control of robotic hands and hand prostheses. Umgebungen, in denen Roboter Menschen sowohl bei industriellen Produktionsaufgaben als auch im Alltag assistieren können, werden ausgereifte Fähigkeiten der robotischen Systeme zur Kooperation mit Menschen und anderen Robotern erfordern. Um dies zu erreichen, ist es erforderlich, dass Roboter sicher in dynamischen Umgebungen navigieren und mit ihrem Umfeld interagieren können. Daher ist es essentiell, dass ein Roboter präzise seine Pose, das heißt seine Position und Orientierung, in der Umgebung bestimmen kann. Allerdings kann sowohl das Modell der Umgebung als auch die Sensoren des Roboters fehlerhaft sein, was zu problematischen Konsequenzen führen kann. Die hier präsentierte Arbeit befasst sich mit dieser Problemstellung, indem mehrere neuartige Methoden des maschinellen Sehens vorgestellt werden. Diese Ansätze führen zu einer Reihe von Herausforderungen, die im Rahmen dieser Dissertation behandelt werden. Diese sind:
Um die zweite Fragestellung zu beantworten, wird eine Methode vorgestellt, mit welcher ein hochgenaues Modell der Umgebung eines Roboters erstellt werden kann. Ein großer Vorteil dieses Verfahrens ist, dass es parallel ablaufen kann und weder spezielle Bewegungen des Roboters benötigt noch Voraussetzungen an die Art der eingesetzten Kameras stellt. Schließlich wird dies auf die dritte Fragestellung erweitert und es wird aufgezeigt, wie simultan zur Erstellung eines Modells der Umgebung auch ein internes Modell des Roboters bestimmt werden kann. Ein wichtiger Vorzug all dieser Methoden ist, dass sie rein auf optischen Sensoren basieren, also auf Kameras und Tiefensensoren. Dies ermöglicht es, die gezeigten Methoden sehr einfach und preisgünstig auf unterschiedlichen Robotersystemen zu implementieren. Die vorgestellten Verfahren werden im Rahmen dieser Arbeit experimentell evaluiert, indem verschiedene robotische Systeme verwendet werden. Diese Systeme reichen von klassischen Industrierobotern bis hin zu humanoiden Robotern. Über traditionelle Robotik hinausgehend, wird des Weiteren dargelegt, wie diese Methoden auch im Rahmen der Mensch-Maschine Interaktion angewandt werden können. Hier wird gezeigt, dass nur durch Betrachtung der Muskelbewegung im Unterarm eines Menschen mittels Methoden des maschinellen Lernens zugehörige Handgesten bestimmt werden können, was zum Beispiel neue Möglichkeiten in der Ansteuerung von robotischen Händen und modernen Handprothesen eröffnet. |