Die sympathischen Forscher Matthieu Deru und Simon Bergweiler vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), die schon mit dem Wii-Balance Board durch Google Earth und Second Life surften, haben mal wieder ein interessantes Projekt zum Thema Mensch-Maschine Schnittstellen vorgestellt: CoMET, das steht für "Collaborative Media Exchange Terminal". Entwickelt wurde Hard- und Software im eigenen Advanced Tangible Interface Lab in Saarbrücken.
Das CoMET Dashboard mit verschiedenen "Spotlets" - intelligente Agenten (Software) mit unterschiedlichen Funktionen
Mithilfe eines durch Sprachbefehle und Drag-and-Drop steuerbaren Arbeitstisches (CoMET) und der dazugehörigen Software versuchen die beiden Forscher uns Normalsterblichen die Nutzung des entstehenden semantischen Webs zu vereinfachen. Zur Demonstration nutzen sie ein iPhone, eine Kamera und einen berührungsempfindlichen Tisch, der als Arbeitsfläche dient.
In dem folgenden Video kann man sich genau anschauen, wie das Ganze funktioniert - die beiden sprechen wieder englisch mit lustigem saarländischen Akzent ;-)
Genauere Informationen zur Technik und Funktionalität auf den Seiten des Advanced Tangible Interface Lab des DFKI in Saarbrücken>>
Freitag, 28. November 2008
Abonnieren
Kommentare zum Post (Atom)
0 comments:
Kommentar veröffentlichen