Hajian und Howe (1996) befassen sich näher mit verschiedenen Aspekten des Einsatzes der Hände bei der Manipulation von Objekten. Sie nennen zuerst einige Besonderheiten der Hände:
Hajian und Howe (1996) untersuchen außerdem verschiedene Phasen der Interaktion zwischen den Fingern und einem Objekt:
In dieser Phase spielt auch die passive Mechanik der Hautoberfläche eine große Rolle (siehe hierzu auch Abschnitt 6.4): Leichte Berührungen führen zu einer Verformung der Haut, je größer die Kräfte werden, desto höher wird aber die Steifigkeit des Finger-Systems.
Bei vielen Aufgaben wird auch die Komplementarität von Armen und Händen genutzt: Die Hände sorgen für die erforderliche Steifigkeit und präzise Mobilität in die gewünschte Richtung, während die Arme dazu eingesetzt werden, die Hände in eine möglichst günstige Position zu bringen.
Son, Howe, Wang und Hager (1996) untersuchen das Zusammenspiel von visueller und haptischer Information beim Ergreifen von Objekten und implementieren ein entsprechendes Beispiel in einem Robotersystem.
Man kann Sehen und Berühren als komplementäre Mechanismen betrachten: Der Gesichtssinn übermittelt Informationen aus der Ferne, während der Berührungssinn geometrische Informationen in kleinerem Maßstab und Information über Kräfte liefert. Durch das Sehen können Objekte rasch lokalisiert und identifiziert werden, so daß schnell und gezielt mit ihnen Kontakt aufgenommen werden kann. Berührungen ermöglichen dagegen genaue Informationen über den Ort und die Beschaffenheit der Oberfläche eines Objektes, so daß anschließende Greifbewegungen optimal angesetzt werden können.
Zur Bearbeitung komplizierterer Aufgaben empfiehlt sich deshalb eine Kombination der beiden Modalitäten: Der Gesichtssinn kann Entfernungen, Richtungen und Bewegungen wahrnehmen, während durch taktile Sensoren lokale geometrische Eigenschaften und Druck gemessen werden können. In bestimmten Situationen läßt sich durch die Kombination der beiden Modalitäten auch eine höhere räumliche Auflösung erzielen.
Son et al. (1996) demonstrieren an einem Robotersystem, daß sich durch Kombination von visueller Information (über zwei Videokameras) und haptischer Information (über ein druckempfindliches Array) zielgerichtete Greifbewegungen durchführen lassen. Dabei wird der Greifarm des Roboters zuerst durch visuelle Information in die unmittelbare Nähe des Gegenstandes gebracht, anschließend wird der Gegenstand über haptische Informationen ergriffen.
Die Autoren führen dabei visuelle Primitive (aus den Abweichungen des tatsächlichen Bildes vom gewünschten berechnet) und taktile Primitive ein. Letztere lassen sich entweder aufgaben-bezogen (Kontaktierungs-Primitive, Reorientierungs-Primitive, Mit-Zwei-Fingern-Greif-Primitive, Festeres-Ergreifen-Primitive) oder auf den sensorischen Raum bezogen (zusätzlich Feedback-Primitive) definieren.