Project_919

AICASys
Adaptive Intention Controlled Assistance System for Smart-Home Control

Durch die stetige Weiterentwicklung der Computer-Technik erreichen digitale Steuerungen eine immer
größere Leistungsfähigkeit. Zudem können Steuerungselemente durch die Vernetzung von
Komponenten und die Einbettung in die Einzelanwendungen verstärkt in der Umgebung verteilt
werden. Dadurch entsteht insgesamt ein intelligentes computergesteuertes Automationssystem.
Während schon ausgereifte Hard- und Software-Lösungen in vielen Bereichen wie beispielsweise der
industriellen Automationstechnik und der Gebäudeautomation existieren, bietet die Gestaltung einer
intuitiven Interaktion zwischen den technischen Systemen und den Bedienern im privaten Hausbereich
eine Reihe von wissenschaftlichen und technischen Fragen, die sich mit folgender zentraler
Fragestellung zusammenfassen lassen:
Wie können komplexe technische Assistenzsysteme einfach und leicht – trotz körperlicher
oder kognitiver Einschränkungen – mithilfe adaptiver Bedienelemente erlernt und bedient
werden?
Neben Ansätzen zur Architektur von Mensch-Technik-Systemen sollen in diesem Projekt spezielle
Lösungen zur intuitiven blickgesteuerten Bedienungvon Automationssystemen erarbeitet werden.
Hierbei wird auf Anwendungen im Bereich der Gebäude-Automation fokussiert, bei denen Endnutzer
mit unterschiedlichen und zum Teil eingeschränktenFähigkeiten im Vordergrund stehen. Verteilte
Steuerungselemente sind beispielsweise für Menschen mit Gehbehinderung schwer erreichbar.
Mobile Steuerelemente basierend auf Touchpad- oder Smart-Phone-Anwendungen sind hingegen in
vielen Fällen nicht behindertengerecht oder nicht intuitiv, was den Umgang mit diesen Systemen
erschwert. Daher wird eine Lösung vorgeschlagen, die auf dem natürlichen Blickverhalten des Nutzers
in seiner gewohnten Umgebung beruht. Der Nutzer kann dabei ohne weitere Hilfe allein mit seinen
Augen die smarten Gerätschaften in der nahen Umgebung (z.B. Kommunikations-, Mobilitäts- und
Gebäudeautomationsgeräte etc.) bedienen, ohne den Eindruck zu bekommen, in einem künstlichen
Umfeld (z.B. vor dem Bildschirm) zu sein. Außerdem soll dadurch auch in Notfallsituationen besser
geholfen werden. Durch adaptive und lernende Verfahren wird ein hoher Anpassungsgrad an die
Umgebung und an die individuellen Nutzereigenschaften sowie an den Lernfortschritt beim
Bedienverhalten erreicht. Weiterhin wird die Ausbringung und Wartung der Systeme erheblich
erleichtert.
Durch die allgemeine Einsetzbarkeit der Technologien und die aktuelle Kostenentwicklung der
Eingabegeräte wird eine weitere große zukünftige Verbreitung in der industriellen Automationstechnik, in den Assistenztechnologien für Land-, Wasser- und Luftfahrzeuge sowie in der
Kommunikationstechnik und in der Unterhaltungsindustrie erwartet.

Durch die stetige Weiterentwicklung der Computer-Technik erreichen digitale Steuerungen eine immer größere Leistungsfähigkeit. Zudem können Steuerungselemente durch die Vernetzung von Komponenten und die Einbettung in die Einzelanwendungen verstärkt in der Umgebung verteilt werden. Dadurch entsteht insgesamt ein intelligentes computergesteuertes Automationssystem. Während schon ausgereifte Hard- und Software-Lösungen in vielen Bereichen wie beispielsweise der industriellen Automationstechnik und der Gebäudeautomation existieren, bietet die Gestaltung einer intuitiven Interaktion zwischen den technischen Systemen und den Bedienern im privaten Hausbereich eine Reihe von wissenschaftlichen und technischen Fragen, die sich mit folgender zentraler Fragestellung zusammenfassen lassen:
Wie können komplexe technische Assistenzsysteme einfach und leicht trotz körperlicher oder kognitiver Einschränkungen mithilfe adaptiver Bedienelemente erlernt und bedient werden?
Neben Ansätzen zur Architektur von Mensch-Technik-Systemen sollen in diesem Projekt spezielle Lösungen zur intuitiven blickgesteuerten Bedienung von Automationssystemen erarbeitet werden.
Hierbei wird auf Anwendungen im Bereich der Gebäude-Automation fokussiert, bei denen Endnutzer mit unterschiedlichen und zum Teil eingeschränkten Fähigkeiten im Vordergrund stehen. Verteilte Steuerungselemente sind beispielsweise für Menschen mit Gehbehinderung schwer erreichbar.
Mobile Steuerelemente basierend auf Touchpad- oder Smart-Phone-Anwendungen sind hingegen in vielen Fällen nicht behindertengerecht oder nicht intuitiv, was den Umgang mit diesen Systemen erschwert. Daher wird eine Lösung vorgeschlagen, die auf dem natürlichen Blickverhalten des Nutzers in seiner gewohnten Umgebung beruht. Der Nutzer kann dabei ohne weitere Hilfe allein mit seinen Augen die smarten Gerätschaften in der nahen Umgebung (z.B. Kommunikations-, Mobilitäts- und Gebäudeautomationsgeräte etc.) bedienen, ohne den Eindruck zu bekommen, in einem künstlichen Umfeld (z.B. vor dem Bildschirm) zu sein. Außerdem soll dadurch auch in Notfallsituationen besser geholfen werden. Durch adaptive und lernende Verfahren wird ein hoher Anpassungsgrad an die Umgebung und an die individuellen Nutzereigenschaften sowie an den Lernfortschritt beim Bedienverhalten erreicht. Weiterhin wird die Ausbringung und Wartung der Systeme erheblich erleichtert.
Durch die allgemeine Einsetzbarkeit der Technologien und die aktuelle Kostenentwicklung der Eingabegeräte wird eine weitere große zukünftige Verbreitung in der industriellen Automationstechnik, in den Assistenztechnologien für Land-, Wasser- und Luftfahrzeuge sowie in der Kommunikationstechnik und in der Unterhaltungsindustrie erwartet.

Contact Person

Dr. Thomas Kieninger

+49 631 20575 1060