Wie uns künstliche Intelligenz im Haushalt unterstützen wird

 

Der Roboter als Paketzusteller: Um das Wissen des Roboters mit den Anforderungen der Welt zusammenzubringen, braucht es noch viel Grundlagenforschung, so IT-Experte Gerald Steinbauer. Quelle: Shutterstock/Blue Island

Der Roboter als Paketzusteller: Um das Wissen des Roboters mit den Anforderungen der Welt zusammenzubringen, braucht es noch viel Grundlagenforschung, so IT-Experte Gerald Steinbauer. Quelle: Shutterstock/Blue Island

Eine neue Generation autonomer Roboter soll künftig Aufgaben selbstständig lösen können, auch dann, wenn Unvorhersehbares passiert. Informatiker der Technischen Universität Graz treiben mit Unterstützung des Wissenschaftsfonds FWF die Entwicklung der künstlichen Intelligenz voran und bringen den Robotern Hausverstand bei.

Was Kinder spielend lernen und Erwachsene aufgrund ihrer Erfahrungen beherrschen, zum Beispiel auf unerwartete Situationen zu reagieren, stellt immer noch eine der großen Herausforderungen in der Robotik dar: Autonome Systeme sollen vom Menschen vorgegebene Aufgaben selbstständig lösen können.

Besonders in kritischen Situationen wäre der Einsatz von solchen intelligenten Robotern von großer Bedeutung – etwa bei Umweltkatastrophen oder Industrieunfällen. Weltweit beschäftigen sich Wissenschafterinnen und Wissenschafter daher mit der Frage, wie Roboter auch in ungewöhnlichen und neuen Situationen ihre Ziele mit den ihnen verfügbaren Ressourcen eigenständig erreichen können. Auch Gerald Steinbauer von der Technischen Universität (TU) Graz arbeitet seit Jahren in der Grundlagenforschung an der Entwicklung des intelligenten und autonomen Roboters mit.

Projekt des Wissenschaftsfonds FWF

In einem vor Kurzem abgeschlossenen Projekt des Wissenschaftsfonds FWF haben sich Steinbauer und sein Team der Aufgabe gestellt, einem Roboter so etwas wie Hausverstand beizubringen. „In unserer Umwelt passieren immer wieder Überraschungen oder kleine Irrtümer, wie etwa dass ich im fünften Stock eines Gebäudes lande, statt im dritten. Wenn ein Roboter nicht merkt, dass er im falschen Stockwerk ist, kann er seine Aufgabe nicht erfüllen“, nennt Steinbauer ein einfaches Beispiel.

In dem Projekt haben die Grazer Forscherinnen und Forscher nun eine Art Schlussfolgerungsmechanismus entwickelt, der es dem Roboter erlaubt, solche Irrtümer zu erkennen und daraus Reparaturaktionen für sein Wissen abzuleiten. „Wir haben Schlussfolgerungen mit dem sogenannten Situationskalkül in Logik abgebildet. Dieses ermöglicht, die von einem Agenten ausgeführten Aktionen und deren Effekte zu beschreiben“, erklärt Steinbauer.

Die Informatiker der TU Graz erstellen dabei laufend automatisch Diagnosen, indem sie beobachten, wo das Wissen des Roboters mit der aktuellen Situation nicht mehr zusammenpasst. Dabei konnten sie herausfinden, dass das Situationskalkül sowohl für die Überwachung und Diagnose genutzt werden kann als auch für die autonomen Entscheidungen des Roboters. Aus dem Wissen, was eine Aktion bewirkt, lernt der Roboter abzuleiten, was er als nächstes tun muss.

Stimmt das Wissen des Roboters mit den Anforderungen in der realen Welt nicht mehr überein, weil sich eben eine Situation verändert hat, wird das „Weltbild“ des Roboters zurechtgerückt. „Wir versuchen in Einklang zu bringen, was der Roboter geplant hat und was wirklich passiert ist, indem wir es formal niederschreiben“, so Steinbauer. Im Test hat sich das Modell bereits bewährt: Ein Roboter, der mehrere Tage durchgehend im Forschungsinstitut mit einfachen Lieferaufgaben betraut wurde, ließ sich auch durch Tricks nicht irritieren.

 Um die aufwändigen Codierungen solcher Modelle zu erleichtern, teilen die verschiedenen Forschungsgruppen weltweit inzwischen ihr Know-how. So stehen etwa Common-Sense-Datenbanken frei zur Verfügung. Auch die Grazer haben auf dieses Wissen zurückgegriffen, um ihre Modelle anzureichern. „Das sind Sammlungen von Wissen, das für den Menschen ganz trivial ist, zum Beispiel, dass ein Objekt nie an zwei Orten sein kann“, sagt Gerald Steinbauer. Die Informatiker wollen nun das Wissen des Roboters kontinuierlich ausbauen. Denn noch reicht dieses nicht aus, um sich in einer komplexen Welt zurechtzufinden.

Hinzu kommen weitere Faktoren, die die Grundlagenforschung im Bereich der Robotik vor große Aufgaben stellt. Autonome Systeme auszutesten, verlangt den Computern enorme Rechenleistung ab. Diese „Computational Complexity“ ist noch sehr groß. „Da wir mit der Rechenleistung nicht zusammenkommen, können wir derzeit keine aufwändigen Beispiele durchtesten“, erläutert der Experte. Das bedeutet: Stößt der Roboter auf ein Problem, kann es Stunden oder Tage dauern, bis er sie lösen kann. – Zeit, die im realen Leben nicht gegeben ist.

 Das spannende in der Robotik sei, so Gerald Steinbauer, das Wissen des Roboters mit den Anforderungen der Welt zusammenzubringen. Hier brauche es jedoch noch viel Grundlagenforschung, betont der Informatiker. Etwa in den Bereichen Wahrnehmung und Kognition seien noch viele grundlegende Fragen zu lösen. „Wir müssen verstehen, wie zum Beispiel biologische Systeme wirklich funktionieren“, betont Steinbauer in Hinblick auf die Umsetzung in der Praxis. Dass solide Grundlagenforschung der beste Wegbereiter für die angewandte Forschung ist, beweist unter anderem ein Start-up, das Doktoranden aus Steinbauers Team gegründet haben. Auch die Beteiligung des Instituts für Software Technologie an Bridge-Projekten des Wissenschaftsfonds FWF und der Forschungsförderungsgesellschaft FFG soll ermöglichen, dass Innovation in der Anwendung Wurzeln schlagen kann.

Zur Person: Gerald Steinbauer ist Assistenzprofessor am Institut für Software Technologie an der Technischen Universität Graz mit den Schwerpunkten Robotik und Künstlicher Intelligenz. Sein besonderes Interesse gilt der Entscheidungsfindung von Robotern nach dem Modell des menschlichen Hausverstands.

 

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>