5 Minuten Lesezeit
Highlights
Ein humanoider Roboter mit künstlicher Intelligenz
Die Covid-19-Pandemie hat uns gezwungen, Abstand zu halten. Besonders schwer war das in der Pflege, wo menschliche Nähe und Empathie für die Diagnose, Behandlung und Betreuung von Patienten unerlässlich sind. Masken, Handschuhe und Desinfektionsmittel reichten oft nicht aus, um die Sicherheit in Pflegesituationen zu garantieren.
Die Möglichkeit, dass ferngelenkte humanoide Roboter mit Künstlicher Intelligenz (KI) Industrie und Gesellschaft revolutionieren können, ist keine Science-Fiction-Fantasie mehr.
Die humanoide Krankenschwester
Lernen Sie Asha kennen – eine humanoide Pflegekraft, die fast wie ein Mensch sehen, fühlen, hören, tasten und interagieren kann. TCS Research hat den KI-Roboter in Zusammenarbeit mit einem Team von mehr als 20 innovativen Akademikern, Technologieexperten und Studierenden geschaffen. Das Team nennt sich Aham Avatar und ist eine Kooperation zwischen TCS Research, dem Indian Institute of Science (IISc) und Hanson Robotics. Hanson Robotics hat die sozial intelligente humanoide Plattform bereitgestellt, TCS Research und IISc sorgten für die Mobilität und die Fähigkeit zur Fernlenkung.
Der Prototyp wurde als Beitrag zum globalen Roboterwettbewerb „ANA Avatar XPRIZE“ entwickelt, der alle vier Jahre stattfindet.
Die Anatomie
Der humanoide Avatar besteht sozusagen aus zwei Seiten – dem Roboter und seinem menschlichen Bediener. Asha selbst ist die Schnittstelle zwischen Patient und Bediener. Sie verfügt über zwei Augen (Kameras), einen Torso und ein Gesicht, das Emotionen ausdrücken kann. Asha kann mit ihren sensorgestützten Fingern wie ein Mensch Objekte greifen, halten, bewegen und weiterreichen. Der Roboter steht auf einer kleinen, mobilen Plattform.
TCS Research hat Lösungen entwickelt, die auf KI und Machine Learning basieren, um Asha kontrollierte Bewegungen zu ermöglichen. Hanson Robotics fertigte Kopf und Torso mittels innovativer Technologien, die unter anderem das menschliche Sehen mit Hochgeschwindigkeitskameras nachbilden.
Das IISc hat die Fernlenkung so gestaltet, dass der Bediener mit einer VR-Brille durch Ashas Augen blickt: Der Bediener steuert den Roboter mit einer Konsole und navigiert Asha so in verschiedene Richtungen. Mehrere Sensoren sorgen dafür, dass der Roboter auf Anweisungen reagiert, angemessen handelt und sich und andere nicht in Gefahr bringt. Der Bediener trägt einen Handschuh mit Sensoren, der seine Handbewegungen an Asha übermittelt, und steuert die Fortbewegung mittels Fußpedalen. Asha hat auch eine Notfallfunktion, die ihren Betrieb bei Bedarf sofort stoppt.
Eine gewisse Teilautonomie ermöglicht Asha, Kollisionen mit Objekten zu vermeiden. Der Bediener kann nicht immer sehen, was sich in der Umgebung des Roboters befindet. Deshalb ist Asha so programmiert, dass sie Hindernisse erkennt und ihren Bewegungspfad anpasst.
Asha kann auch Text in Sprache umwandeln, ihre Lippen synchron zum gesprochenen Wort bewegen und Emotionen zeigen sowie zwischen Befehlen und Sprachantworten unterscheiden. Und sie kann über Application-Programming-Interface-(API-)Aufrufe einfache Aktionen wie „Lächeln“, „Aufheben“ oder „Übergeben von Gegenständen“ ausführen.
Asha reagiert zudem auf Stimmen. Wird sie beispielsweise mit „Guten Abend“ begrüßt, antwortet sie darauf.
Eine vollwertige Pflegekraft
Asha wird zwar von einem Menschen gesteuert, hat aber eine Teilautonomie. Sie kann zum Beispiel in einem speziellen Pflegefall die Temperatur des Patienten mit einem berührungslosen Thermometer messen, sich nach seinem Befinden erkundigen und ihm ein Glas Wasser anbieten.
Der Roboter ist noch in der Entwicklungsphase und wird ständig verbessert und erweitert. Das Ziel des Teams Aham Avatar ist es, Asha zu einer praktischen Lösung für die „menschliche“ Pflege in Situationen zu entwickeln, in denen körperlicher Kontakt nicht möglich ist – wie es während der Pandemie der Fall war.