Home im.ve Group im.ve Lab Projects Publications Teaching News, Events, Activities Contact us News

Events

News | Events | Activities

2010-12-07 1415 D-220
"Avatar Ergo Sum: Manipulation der Körperortswahrnehmung"

Natalia Mannov
Verschiedene Experimente zeigen, dass die Selbstwahrnehmung eines gesunden Menschens durch widersprüchliche visuelle und taktile Reize verändert werden kann. "Video ergo sum" ist ein solches Experiment, bei dem in einem Head Mounted Display (HMD) der Versuchsperson eine Videoaufnahme von ihrem eigenen Rücken oder wahlweise von verschiedenen Objekten 2m vor ihr präsentiert wird und diese Störung hervorgerufen und gemessen wird. (Lenggenhager et al. 2007). Die Diplomarbeit "Avatar ergo sum: Manipulation der Körperortswahrnehmung" beschäftigt sich damit, auf der Grundlage einer virtuellen Welt und virtuellen Avatar Repräsentation der Versuchsperson ein sonst analoges Wahrnehmungsexperiment zu schaffen, welches untersucht, ob die gleiche Wirkung auch in projektionsbasierten Systemen und mit computergenerierten Representationen des Menschen hervorrufbar ist.

2010-10-26 1415 D-220
"Qualitative interaktive Erfahrungen"

Matthias Haringer
Abstract: Virtuelle Realität (VR) und Virtuelle Umgebungen (Virtual Environments, VE) fassen Technologien zusammen, die interaktive virtuelle Inhalte möglichst realistisch für einen oder mehrere Benutzer erfahrbar machen. Bis vor einigen Jahren war der Fokus dabei fast ausschließlich auf der Verbesserung der multimodalen Displays und Interaktionsgeräte und deren Ansteuerung. Erst in der aktuellen Forschung wird begonnen auch die Wirkung des Mediums auf den Benutzer mit in Betracht zu ziehen. In meinem Dissertationsprojekt zu Qualitativen interaktiven Systemen werden neue Ausdrucksmöglichkeiten für das Medium der virtuellen Umgebungen konzipiert, umgesetzt und hinsichtlich ihrer Wirkung auf den Benutzer evaluiert. Das Projekt besteht prinzipiell aus vier Teilen: 1. Das Aufarbeiten vorhandener und das Konzipieren neuer Ausdrucksmöglichkeiten. 2. Das Erstellen eines erweiterte VR-Systems, das die neuen Ausdrucksmöglichkeiten dynamisch unterstützt. 3. Das Finden von Methoden zur Analyse der Wirkung von virtuellen Umgebungen. 4. Die Evaluation des Systems und der Analysemethoden durch mehrere Benutzerstudien. Dieser Vortrag gibt einen Überblick über die gesamte Arbeit und einen Einblick in zwei aktuelle Studien.

2010-10-11 1500 H-100
"Falling Down in Second Life : art and human frailty in technological worlds"

Prof. Ben Chang
Experimental media artists Katherine Behar, Ben Chang, and Silvia Ruzanka create art in virtual environments, from Second Life to immersive CAVE's. Their work explores the intersection of the human and the virtual, with influences ranging from video games and philosophy to obsolete technology and computer glitches to IKEA furniture and the movie Tron. They will present their current collaborative research and artwork on idealism and failure in Second Life, as well as their past work in immersive environments, media performance, and digital art.

www.katherinebehar.com
www.bcchang.com
www.vitagrrl.com

2010-06-08 1415 D-220
"„I'm Home - Smartphone-enabled Gestural Interaction with Multi-Modal Smart-Home Systems“"

Tilo Westermann
Smart-home environments are a highly active research topic in the field of Ubiquitous Computing. Through technological progress, more and more devices are equipped with networking capabilities and intelligent sensors that allow a merger in a home network. However, the control options for these devices are still the same as in the early 1980s. To curb the rising number of remote controls, so-called universal remote controls were introduced. The user-friendliness, however, remains questionable due to the large number of buttons. Therefore, new approaches for controlling smart-home environments are needed, not only because of the need for usability, but also for reducing the amount of required controls.
This thesis investigates the use of a smartphone-based gestural interface for smart-home control to encounter the emerging problem of an abundance of remote controls that are not necessarily user-friendly, or are replaced through a universal remote control. This approach seems worthwhile, as the mobile phone has become a pervasive part of everyday live. A series of studies for the creation of a set of applicable gestures is introduced and details on the implementation of a gesture recognition system for mobile devices are presented. As an example platform, the Apple iPhone was chosen for evaluating the implementation in a final usability study.
The results from this study show that gestures may be used for controlling devices in a smart-home environment.

2009-12-15 1415 D-220
"Ontology based authoring of affective virtual environments "

Jan-Tajo Fittkau
Diplomarbeitsvortrag

2009-04-14 1415 D-220
"Affordanz in virtuellen Welten"

Kirsten Albrecht
Virtuelle Umgebungen werden in immer mehr Bereichen eingesetzt, wie Design-, Forschungs- und Lehranwendungen. Dabei ist es vielfach wichtig, dass die Reaktionen auf virtuelle Umgebungen denen in einer korrespondierenden realen Umgebung gleichen. Die Unterschiede in der Wahrnehmung und der Reaktion auf virtuelle Umgebungen sind bisher aber kaum untersucht. Eine wichtige Rolle für die Gleichheit der Wahrnehmung und der Reaktion spielen die wahrgenomenen Affordanzen. Auf den Begriff Affordanz aus der Wahrnehmungsforschung wird in der Diplomarbeit detailiert eingegangen. Der zentrale Teil der Arbeit ist eine Studie, die Reaktionen auf Objekte in einer virtuellen und einer realen Umgebung vergleicht. Für die Studie wurde eine reale Umgebung gewählt und zum Vergleich eine möglichst ähnliche virtuelle Umgebung geschaffen. Es wurde untersucht, ob es Unterschiede in den Ideen und Handlungen gibt, die Probanden beim Untersuchen der Objekte entwickeln, also ob sie andere Affordanzen der Objekte wahrnehmen. Es wurde nachgewiesen, dass es durchaus signifikante Unterschiede bezüglich der Konzentration auf bestimmte Eigenschaften und Affordanzen der Objekte in der realen Umgebung gegenüber der virtuellen Umgebung gibt. Insbesondere konnte gezeigt werden, dass der Umgang mit virtuellen Objekten sorgloser ist.

2009-01-19 1715 Konrad-Zuse Hörsaal, Informatikum
"Selbstmodelle beim Menschen: Neuronale Grundlagen von Telepräsenz und Vorbild für technische Systeme"

Prof. Dr. Lars Schwabe, Universität Rostock
Wir wollen verstehen, inwiefern Menschen interne Modelle des eigenen Organismus und dessen Interaktion mit der Umwelt verwenden. Einerseits ist die Untersuchung solcher Selbstmodelle beim Menschen ein Ansatz, um empirische Theorien von Bewusstsein und Selbstbewusstsein zu entwickeln und somit von Interesse für die Grundlagenforschung. Der Einsatz von Selbstmodellen in autonomen technischen Systemen, gewonnen durch Abstraktion der relevanten biologischen Prinzipien, ist jedoch auch ein Ansatz, um beispielsweise die Mensch-Maschine-Interaktion zu verbessern.

In meinem Vortrag werde ich zunächst einige Experimente vorstellen, die in den letzten Jahren das Interesse an der empirischen Untersuchung des „Selbst“ geweckt haben. Es hat sich gezeigt, dass durch geeignete multisensorische Stimulation nicht nur die Konfiguration der Hände („Rubber Hand“-Illusion [1]), sondern auch die vermeintlich „fest codierte“ Lokalisation des Selbst in den Grenzen des physikalischen Körpers manipuliert werden kann („Rubber Body“-Illusion, [2,3]), ähnlich wie es bei spontan auftretenden außerkörperlichen Erfahrungen der Fall ist [4]. Telepräsenz und virtuelle Welten sind einige Beispiele für mögliche Anwendungen dieser Grundlagenforschung. Ich werde dann einige neuere eigene Experimente präsentieren (Verhaltensexperimente und Messung der elektrischen Gehirnaktivität mittels Elektroencephalografie), in denen wir die kognitive Manipulation der Erste-Person-Perspektive und unseren „Autopiloten“ beim zielgerichteten Gehen vermessen haben. Letztendlich werde ich ein sehr einfaches Bayes’sches Modell für die Verarbeitung vestibulärer sensorischer Information vorstellen und zeigen, dass einige Aspekte von spontan auftretenden außerkörperlichen Erfahrungen im Rahmen dieses Modells als eine vestibuläre Illusion verstanden werden können [5]. Diese Modellstudie ist eine Implementation unserer Grundannahme: Wir gehen davon aus, dass sich Selbstmodelle als statistische und prädiktive Modelle von sensorischer Information konzipieren lassen, die bei der Planung und Durchführung von Aktionen verwendet werden. Weitere Arbeiten werden nun zeigen müssen, inwiefern ein Transfer solcher Selbstmodelle auf technische Systeme und Softwaresysteme deren Performanz und Robustheit steigern kann.

[1] M. Botvinick and J. Cohen, Nature, 1998 Feb 19; 391(6669):756.
[2] B. Lenggenhager et al., Science 2007 Aug 24; 317(5841):1096-9.
[3] H. Ehrsson, Science 2007 Aug 24;317(5841):1048.
[4] O. Blanke, C. Mohr, Brain Research Reviews 2005 50:184-199.
[5] L. Schwabe and O. Blanke, Front. Hum. Neurosci. (2008) 2:17. doi:10.3389/neuro.09.017.2008.

2009-01-08 1000 D-125
"Dynamic, Interactive Virtual Environments"

Kristopher J. Blom
The ability to create interesting and engaging Virtual Environments (VE) is much desired across the spectrum of VE applications. However, such environments are more of a rarity than reality; Instead, most environments in use are rather static. Two fundamental ways to enhance static VEs are to include both changes over time (dynamics) and user interaction. They are challenging to support in application independent ways due to their continuous and unpredictable natures.

The presented work defines, explores, and develops support for Dynamic Interactive Virtual Environments (DIVEs). In a first step, the design space of DIVEs is explored. An analysis of that space provides the foundations for building support that is appropriate to the actual needs of building DIVEs. Then, a system of support based on the Functional Reactive Programming paradigm is presented. The cross-platform framework of support, Functional Reactive Virtual Reality (FRVR), makes DIVE creation possible,
even within the constraints of a Virtual Reality setting. It enables the creation of DIVEs not feasible before and with greater ease than previous methods. Several examples are presented, which demonstrate how DIVEs can be implemented using FRVR and testify to the flexibility and power of the
approach.

2008-11-27 1700 Kampnagel, Hamburg
"Zwischen Real und Digital: Innovative Schnittstellen in den elektronischen Raum."

Steffi Beckhaus
Kreativität verlangt freie Möglichkeiten des Ausdrucks und der Schaffung von Neuem. Computerschnittstellen versuchen, durch Vereinheitlichung und Normung Synergien nutzbar zu machen und schränken dabei natürlicherweise die Möglichkeiten des freien Arbeitens mit einem Medium stark ein. Die Entwicklung solcher Schnittstellen ging vielfach aus zu Gunsten des Computers: einfach für den Computer zu verstehende Regler und Tasten sind der Standard, um mit dem Computer zu interagieren.

Ganz anders sähe eine Sichtweise aus der Perspektive des Menschen aus, der mit all seinen Sinnen und Fähigkeiten kreativ arbeitet. Selbst beim handschriftlichen Fertigen eines Briefes riechen wir die Tinte, hören das Papier und geben der Linienführung unterschiedlichen Ausdruck. Mit Bewegungssensoren in aktuellen mobilen Geräten und anderen fortschrittlicheren Technologien haben wir heute neue Potentiale, dem Computer wieder etwas der Einschränkungen abzuringen.

Dieser Vortrag stellt innovative Möglichkeiten vor, mit denen digitale Programme gesteuert werden können. Das ChairIO, als ein Beispiel, ist eine sitzbasierte Schnittstelle zum Computer. Mit ihr werden durch Verlagerung des Körpers auf einem Hocker intuitiv und dynamisch Bewegungen oder Daten kontrolliert. Fahrten durch dreidimensionale virtuelle Welten sind dadurch genauso einfach möglich zu steuern, wie viele Spiele. Ein zweites Beispiel ist die GranulatSynthese, eine an einen Sandkasten erinnernde Tischprojektion. Klänge, Bilder und Granulat verschmelzen zu einer audiovisuellen haptischen Installation, die durch Muster in der Granulatfläche beeinflusst wird. Beide Ansätze verbinden auditive, haptische und kinästhetische Elemente im realen Raum mit elektronischen Daten im Computer. Die Schnittstelle wird als Instrument, als Teil der Installation begriffen, die durch ihre multisensorischen Eigenschaften ihre eigene Präsenz erhält und nicht mehr nur als Vermittler dient. Beide Ansätze wurden im im.ve lab des Departments Informatik an der Universität Hamburg entwickelt.

http://www.klangwerktage.de/

2008-11-25 1700 HAW, Raum 40 , Stiftstr. 69 (Berliner Tor)
"Von Flughockern und Sandkisten – Spielesteuerung mal anders"

Steffi Beckhaus
Vortrag im Rahmen der Ringvorlesung "Gamestechnologie und -theorie" http://www.gamecity-hamburg.de/?id=631

2008-11-18 1415 D-220
"Bildeffekte in Avango auf Basis von GLSL Shadern"

Ulf Reimers und Malte Thiesen
Unsere Diplomarbeit befasst sich mit Bildeffekten, einer Form der digitalen Bildbearbeitung. Diese Art von Effekten fügt einem Bild keine neuen Inhalte hinzu, sondern verändert bestehende Bildelemente. Bildeffekte werden in der Filmindustrie und zunehmend auch von Computerspielen eingesetzt. Dabei stehen nicht allein ästhetische Gesichtspunkte im Vordergrund, sondern auch die gezielte Einflussnahme auf die emotionale Wirkung einer Szene.

Wir haben festgestellt, dass Virtual-Reality-Systeme in ähnlicher Weise von Bildeffekten profitieren können wie Filme und Computerspiele. Es mangelt jedoch an entsprechender Softwareunterstützung. Daher haben wir ein Bildeffektsystem realisiert und in das bestehende VR-System Avango integriert. Um die Fähigkeiten des Systems aufzuzeigen, haben wir weiterhin einen Basissatz von Effekten erstellt.

In diesem Vortrag wird der Einsatz von Bildeffekten in der Film- und Spieleindustrie erläutert, sowie die Realisierung des Bildeffektsystems beschrieben, mit dem solche Effekte auch in VR-Echtzeitumgebungen einsetzbar sind. Im Anschluss werden wir die Ergebnisse unserer Arbeit anhand von Beispielen demonstrieren.

(Vortrag zur Diplomarbeit)

2008-02-05 1415 D-220
"Interaction Techniques for Dynamic Virtual Environments "

Roland Schröder-Kroll
Es werden Methoden zur Unterstützung der Interaktion in dynamischen Virtuellen Umgebungen (dynamic virtual environments, DVEs) untersucht. Der Schwerpunkt liegt auf Selektionstechniken als Basis der Interaktion in Virtuellen Umgebungen. Eine grundlegende Taxonomie der dynamischen virtuellen Umgebungen wird präsentiert. Ansätze zur Interaktion in DVEs wurden entwickelt und die Eignung von etablierten Techniken analysiert. Drei Selektionstechniken wurden entworfen,
implementiert und in einem immersiven Projektionssystem evaluiert. Zwei davon haben sich als sehr gut geeignet für die Selektion von dynamischem Inhalt herausgestellt.

2008-01-29 1500 D-220
"Quintet.net "

Prof. Dr. Georg Hajdu, Hochschule für Musik und Theater, Hamburg
Quintet.net ist eine interaktive vernetzte Multimedia-Performanceumgebung, die bis zu fünf Interpreten ermöglicht, über das Internet oder in lokalen Netzwerken unter der Leitung eines Dirigenten zu musizieren. Die Umgebung, die mit der grafischen ProgrammierspracheMax/MSP programmiert worden ist, besteht aus vier Komponenten: Server, Client, Conductor und Listener. Außerdem existiert ein Viewer Add-on für die Client- und Listener-Komponenten, die von einem Videokünstler bedient wird. http://www.quintet.net/

2008-01-22 1415 Diplomvortrag
"Ein Sitzbasiertes Interface zur Steuerung von 2D Desktop Applikationen"

Jan Brauer
Das sitzbasierte Interface ChairIO hat sich als äußerst intuitives und ansprechendes Eingabegerät für die Navigation in virtuellen Welten und zur Bedienung von 3D-Spielen herausgestellt. Das Interface soll nun für die Windowsplattform als Eingabegerät zur Steuerung von Applikationen nutzbar gemacht werden. Dazu wird ein Framework vorgestellt, dass die Steuerung beliebiger Applikationen unter Windows mit dem ChairIO ermöglicht. Exemplarisch wird mit dessen Hilfe die Maussteuerung unter Windows sowie die Steuerung von Google Earth implementiert und anschließend die Qualität der Steuerung evaluiert.

2007-11-27 1415 D-220
"Dynamic Interactive Virtual Environments: defining what it means to be dynamic, interactive, or both"

Kristopher J. Blom
An expanding spectrum of research, entertainment, and business applications use virtual environments as a means of presenting a reality that is apart from the user's current place and situation. The applications are disparate in what they are trying to achieve and even in the content they are presenting; However, there are two trends that can be observed across these: the necessity for the next generation of environments to advance beyond classical static environments and for non domain experts to be generating both the content and working of the programs. For reasons that vary across the fields, the presented environments need to expand to include time changing components as well as more interaction possiblities for the user. In particular, there is a growing need for environments that engage and immerse the user in another “world.” Successfully creating such worlds depends on the inclusion of both components that add interest to the environment and enabling the user to better and more often interact.

The development of interactive virtual environments has been a topic of interest for at least two decades and numberous systems for doing it have been proposed. Systems that have included support for creating more interesting virtual environments have also be proposed, though often narrow in scope. A continued need for better system support for truly interactive and dynamic worlds coupled with the growing need for simplier methods indicate that the proposed solutions do not suffice. This talk focuses on a portion of ongoing work that strives to address this problem and, in particular, will focus on formalizing the requirements of such a system.

In an initial step, the space of all the possible components of such a dynamic, interactive environment is defined. The design space is initially divided into sub-areas and then taxonomies of each area are developed. These taxonomies lay a formal groundwork for developing requirements on a software system for the development of the next generation of Virtual Environments. The taxonomies and analysis presented indicate a potential the benefit of taking a new approach to the software design and form the foundations for a software package being developed, Functional Reactive Virtual Reality.

2007-11-26 1715 B-201, Colloquium
"Benutzungsschnittstellen für allgegenwärtige Computer"

Prof. Dr. Albrecht Schmidt, Universität Duisburg-Essen
Computer sind heute in vielen Lebensbereichen selbstverständlich und in zahlreichen Geräten und Gegenständen eingebettet. Anwendungen werden im Kontext genutzt, wobei die Bedienung von Computern in verschiedensten Situationen des täglichen Arbeits- und Privatlebens geschieht. Benutzer haben häufig eine geringe Akzeptanz für das Erlernen und Nachvollziehen technischer Details und erwarten eine einfache und intuitive Benutzung von komplexen Systemen.
Technologischer Fortschritt in den Bereichen der Rechentechnologie, der Kommunikationsnetze, der Sensorik und der rechnergesteuerten Aktuatoren ermöglicht es neue Benutzungsschnittstellen zu entwickeln, welche sich in Alltagsgegenstände, Kleidung und in die Umgebung einbetten lassen. Solche Systeme bedingen, dass die Nutzung und das Erzeugen von Information inhärent mit der Interaktion des Menschen in seiner Umwelt verbunden werden.
Die vorgestellten Forschungsarbeiten betrachten wie sich durch die Einbettung von Interaktion neue Wege für die Mensch-Maschine-Interaktion beschreiten lassen. Dabei wird die Einbettung auf technischer und konzeptueller Ebene untersucht. In experimenteller Forschung, also durch Entwurf, Implementierung und Evaluation, wird ein systematisches Entwicklungsprozess für neue Interaktionsformen und neue Interaktionswerkzeuge erarbeitet. Zentrale Anliegen sind Architekturen, Werkzeuge und Methoden, welche den Entwicklungsprozess von neuen Benutzungsschnittstellen und Interaktionsgegenständen, vereinfachen und beschleunigen.
Weitere Informationen zu den Forschungsarbeiten finden sie unter http://www.pervasive.wiwi.uni-due.de/ und http://www.hcilab.org.

2007-06-12 1415 D-220
"Gestaltung eines papierbasierten Tangible Interface zur Unterstützung kunsthistorischer Arbeitstechniken"

Tanja Döring, Universität Hamburg (Diplomvortrag)
Grafische User Interfaces bieten nicht für alle Aufgaben optimale Unterstützung. Die beschränkte Bildschirmgröße, die Konzeption als Einzelarbeitsplatz und die fehlende Integration papier- und computerbasierten Arbeitens sind einige der Gründe für die Entwicklung neuer Interfaces. Zu diesen zählen Tangible User Interfaces (TUIs), welche greifbare Gegenstände mit digitalen Daten und Funktionen verknüpfen und somit neue Möglichkeiten der Interaktion mit dem Computer und seiner Integration in die Umgebung des Menschen liefern. Die Anwendungsmöglichkeiten sind vielfältig und ihre Erprobung wie auch die Erarbeitung eines grundlegenden Designwissens befinden sich noch in den Anfängen.

Diese Diplomarbeit stellt die wissenschaftliche Disziplin der Kunstgeschichte als neuen Anwendungskontext für Tangible User Interfaces vor und geht der Frage nach, wie die Arbeit von Kunsthistorikern in Forschung und Lehre durch ein TUI unterstützt werden kann. Dabei ist es ein zentrales Anliegen, traditionelle papierbasierte Arbeitsweisen zu erhalten und sie gleichzeitig um die Vorteile des computerunterstützten Arbeitens zu erweitern. Anhand von Literaturrecherche und der Durchführung einer Fallstudie untersucht die Diplomarbeit kunsthistorische Arbeitsweisen und einzelne Arbeitsschritte der wissenschaftlichen Arbeit mit Abbildungen. Auf dieser Basis ermittelt die Arbeit Potenziale für den Einsatz eines Tangible Interface zur Erstellung kunsthistorischer Bildertafeln und ein Konzept für ein System, welches schließlich anhand von Prototypen erprobt und diskutiert werden soll. Übergeordnetes Ziel der Arbeit ist die Lieferung eines Beitrags zur Herausbildung von Gestaltungswissen für Tangible User Interfaces in kreativen Arbeitskontexten. Der Vortrag liefert eine Einführung in Tangible Interfaces und stellt Ansatz, Durchführung und bisherige Ergebnisse der Diplomarbeit vor.

2007-02-15 1600 TU Graz
"Innovative Mensch-Maschine Schnittstellen"

Steffi Beckhaus, Universität Hamburg
Interessante, überzeugende, interaktive Erfahrungswelten auf Basis von VR (Virtual Reality) und AR (Augmented Reality) zu schaffen, ist immer noch eine Herausforderung. Der Fokus der VR Forschung in den 90er Jahren lag im Wesentlichen in den Bereichen der technologischen Entwicklung von VR Systemen und Rahmenwerken und in der Entwicklung geeigneter Ein- und Ausgabegeräte und Interaktionstechniken. Die Vision der VR, eine multisensorische, voll immersive Umgebung als glaubhafte Erfahrungswelt zu schaffen ist jedoch immer noch weit entfernt. Nur der visuelle, teils der auditive und haptische Sinn des Menschen werden stimuliert und die Interaktion mit den Welten ist, verglichen mit den Möglichkeiten der realen Welt, stark beschränkt.

Der Schwerpunkt der Forschung von interactive media.virtual environments (im.ve) befasst sich mit technischen und konzeptuellen Fragestellungen zu der Erstellung von „interaktiven Erfahrungswelten“. In diesem Vortrag werden einige Forschungsarbeiten der Arbeitsgruppe aus dem Bereich „Innovative Mensch-Maschine Interaktion“ vorgestellt, die über den Einsatz der bisherigen Standard Ein-/ Ausgaben in Desktop und VR Systemen hinausgehen. Dies sind beispielsweise das chairIO, ein Sitzinterface, und die Anwendung eines olfaktorischen Displays zur Bereicherung von begehbaren VR Welten mit Geruch. Ein kurzer Überblick über den gesamten Forschungsbereich wird gegeben.

2007-02-06 1415 D-220
"Creating Dynamic, Interactive Virtual Environments in support of Interactive Storytelling"

Kristopher J. Blom, Universität Hamburg
The compelling nature of the immersive displays of Virtual Reality are enough to bring an initial interest and excitement over the presented environments. Virtual environments from the early development of the field were simple and static. However, today's participants/visitors, used to the lively, provoking environments of modern computer games, become disinterested quickly in such static environments. This is due to the lack of support for building such dynamic environments and the lack of financial resources to code dynamics by hand as happens for games.

This talk presents research on developing a method for the development of dynamic, interactive virtual environments. The goal of this research is a system that supports the creation of environments, which move beyond the static environments of current Virtual Reality. However, the addition of simple animations is not enough. The dynamic components need to provide methods for interacting with them. Perhaps the ultimate dynamic interactive environments are those of the emerging Interactive Storytelling area. Interactive Storytelling requires environments of high interest and stories are necessarily dynamic. For this reason, the ultimate goal of this research is the support of Interactive Storytelling.

The research results of the work to date will be presented. The previous developments for creating dynamic, interactive virtual environments will be described. The current status of the research will be briefly presented. Finally, the progress of the different research and projects on this topic at the university will be outlined.

2007-01-16 1415 D-220
"Möglichkeiten der Schattendarstellung in OpenGL, Performer und Avango"

Björn Kühl, Universität Hamburg
Schatten haben eine große Bedeutung für die menschliche Wahrnehmung, da wir durch sie in der Lage sind, Formen von schattenwerfenden aber auch von schattenempfangenden Objekten sowie ihre räumliche Anordnung besser zu verstehen. Während ältere Verfahren entweder vorberechnete Schatten verwendeten oder dynamische Schatten nur auf planare Oberflächen werfen können, werden in dem Bereich der Virtuellen Realität dynamische Verfahren benötigt, die in beliebigen interaktiven Situationen eingesetzt werden können. Die Beschäftigung in diesem Bereich hat gezeigt, dass nur zwei Verfahren diesen Anforderungen genügen: Shadow Mapping und Stencil Shadow Volumes.

Shadow Mapping ist ein bildbasierendes Verfahren, das jedes Frame in zwei Durchläufen erzeugt. Zuerst wird die Szene aus Sicht der Lichtquelle betrachtet und die Tiefeninformationen in eine vorbereitete Schattentextur geschrieben. Diese wird in einem zweiten Durchlauf verwendet, um die Bereiche abzudunkeln, die zwar aus der Kameraperspektive, aber nicht von der Lichtquelle aus sichtbar sind. Das geometriebasierende Verfahren der Stencil Shadow Volumes wird in Doom3 benutzt, um die Welt in Dunkelheit zu tauchen und so seine unheimliche Atmosphäre zu erzeugen. Es berechnet aus der von der Lichtquelle aus sichtbare Silhouette eines Objektes ein Schattenvolumen, mit dem der Bereich der Szene umschlossen wird, der aus Sicht der Lichtquelle von dem Objekt verdeckt wird. Anschließend werden alle Objekte, die sich innerhalb des Volumens befinden, als im Schatten liegend markiert und abgedunkelt gezeichnet.

Beide Schattenverfahren profitieren von der Geschwindigkeit moderner Grafikprozessoren. Während die beschleunigte Vertexverarbeitung für die Berechnung der Schattenvolumen genutzt werden kann, sind es beim Shadow Mapping die mehrfach vorkommenden Fragmentshader-Einheiten, die ihren Einsatz auch mit hohen Auflösungen ermöglichen.

2007-01-10 1015 D-125
"Organisation von Videospiele-Projekten und die speziellen Probleme der Programmierung für Spielekonsolen"

Dirk Ohlerich, 49Games

2006-12-05 1415 D-220
"OpenGL-Shader in Avango am Beispiel von NPR-Shadern"

Alexej Fink , Universität Hamburg
Die Shader Technologie ermöglicht eine sehr flexible und effiziente Implementierung von verschiedensten Belichtungstechniken. Nichtphotorealistische Zeichentechniken sind für den Einsatz in Virtual-Reality Anwendungen besonders interessant, da sie unterschiedlichste Zeichenstile adressieren, die dem Menschen aus dem physischen Leben bereits bekannt oder aber auch sehr künstlich sein können. Zum Beispiel können verschiedene Maltechniken nachgebildet werden. Zudem können viele NPR Algorithmen erheblich schneller berechnet werden als photorealistische Algorithmen, was für jede interaktive Anwendung von großer Bedeutung ist.

In der vorgestellten Diplomarbeit wurde folgende Fragestellung adressiert:
1. In wie weit werden OpenGL Shader von dem Avango Framework unterstützt?
2. Werden von NPR-Shadern besondere Anforderungen an das Framework gestellt?
3. Welche Besonderheiten bezüglich Shader gibt es bei einer Augmented-Reality Installation?

Das praktische Ergebnis der Diplomarbeit stellen mehrere Funktionsbibliotheken dar, die die Integration von Shadern in Avango unterstützen und vereinfachen. Weiterhin wurden mehrere Restriktionen und Eigenheiten von Avango/Performer dokumentiert, welche bei der Entwicklung und Nutzung von Shadern beachtet werden müssen.

2006-11-15 1015 D-125
"World Usability Day: Nutzerzentriertes Design - Wie man einfach Gebrauchsqualität erzeugt"

Marcel Hastenteufel,

2006-07-11 1415 D-220
"Sonifikationssystem zur Echtzeitanalyse von Infraschall"

Dennis Altjohann, Universität Hamburg
Unsere Umwelt ist laut. Permanent ist der Mensch den unterschiedlichsten Geräuschen ausgesetzt. Aber der hörbare Bereich, der sich von 20 Hz – 20 kHz erstreckt, ist nur ein kleiner Teil der allgegenwärtigen Schallwellen. Die Frequenzen unterhalb von 20 Hz werden als Infraschall, die oberhalb von 20 kHz als Ultraschall bezeichnet. Nachweislich beeinflussen sowohl Infra- als auch Ultraschall den menschlichen Körper, auch wenn diese nicht bewusst wahrgenommen werden.
Das Sonifikationssystem bietet dem Anwender die Möglichkeit, den Infraschallbereich hörbar zu machen. Es besteht aus einem Infraschallmikrofon und einer Software, die die tieffrequenten Schallwellen in den hörbaren Bereich transformieren. Die Software basiert auf verschiedenen Verfahren, die sogar die Transformation in Echtzeit gestatten.
Mit Hilfe des Systems wurden verschiedene Szenarien, wie z.B. ein Gewitter oder die Hamburger Landungsbrücken, auf das Vorhandensein von Infraschall untersucht.

2006-06-13 1415 D-220
"Olfaktorisches Display: Einbindung von Gerüchen in interaktive 3D-Welten"

Sonja Haselhoff, Universität Hamburg
Der Anspruch der virtuellen Realität (VR) ist es, virtuelle Welten zu schaffen, die der Benutzer kaum von einer realen Welt unterscheiden kann. Dabei liegt der Schwerpunkt in heutigen VR-Anwendungen auf der grafischen Modellierung und der Interaktion mit Objekten. Um dem Benutzer eine möglichst umfassende Wahrnehmung zu bieten, sollten neben dem optischen Sinn auch die anderen Sinne angesprochen werden, da sie einen erheblichen Beitrag zur Orientierung und zum Gewahrsein der Umgebung leisten können.

Diese Diplomarbeit befasst sich mit der Einbindung von Gerüchen in virtuelle Welten. Gerüche haben einen großen Einfluss auf das Unterbewusstsein, da ein direkter Zusammenhang zwischen Gerüchen und Emotionen und Gefühlen besteht. So lassen sich Erlebnisse, die mit Gerüchen in Verbindung stehen, viel intensiver erfahrbar machen. Auch Motivation und Aufmerksamkeit werden durch den gezielten Einsatz Gerüche gesteigert. Im Bereich der VR oder von Computerspielen lassen sich so viele Anwendungen gut durch Gerüche unterstützen.

Um den Einsatz von Gerüchen in VR-Welten und Spielen zu ermöglichen und zu testen, wurde eine Softwareanbindung für ein olfaktorisches Display entwickelt. Diese ist als Erweiterung für verschiedene 3D-Welten einsetzbar und mit verschiedenen Ausgabegeräten benutzbar. Im Rahmen dieser Arbeit wurden beispielhaft 3Dali als 3D-Welt und der Sniffman der Firma Ruetz als Ausgabegerät verwendet. Mit Hilfe dieser Softwareanbindung wird eine sinnvolle Einbindung von Gerüchen in die 3D-Welt und eine effektive Berechnung der Geruchsausgabe unterstützt, was bereits in ersten Tests gezeigt werden konnte.

2005-12-13 1415 D-220
"Interactive Voxel-based Atmospheric Effects and Phenomena (Diplomvortrag)"

Thorsten Juckel , University of Hamburg
Innerhalb einer interaktiven Umgebung werden 3D-Objekte, die bereits als Oberflächengeometrie vorhanden sind, mit Hilfe eines Partikelsystems (also zusammengesetzt aus vielen kleinen Punkten oder Flächen) dargestellt. Diese Punkte können sich dann unabhängig voneinander bewegen.
Gegenüber dem ursprüglichen Objekt besteht jetzt die Möglichkeit, direkt mit dem Modell zu interagieren und nicht nur mit vorher definierten Eigenschaften.
Die Darstellung von "geisterhaften" Erscheinungen sticht dabei besonders heraus, denn diese haben die Eigenschaft, eine definierte Form zu haben, aber immer noch so diffus zu sein, dass man durch sie hindurch gehen oder mit der Hand verwischen kann.

2005-06-06 1715 B-201
"Perspektiven Interaktiver Sonifikation (Kolloquiumsvortrag)"

Dr. Thomas Hermann, University of Bielefeld
Sonifikation hat in den letzten Jahren einen festen Stellenwert im Kanon der Datenpräsentationstechniken gewonnen. Im Kontext der Explorativen Datenanalyse sind akustische Techniken ein geeigneter erster Schritt zur Inspizierung, um z.B. Hypothesen über vorhandene Strukturern und damit geeignete nachfolgende Analyseverfahren zu bilden.
Dieser Vortrag gibt einen Überblick über das Forschungsgebiet der Sonifikation, klärt die Begrifflichkeiten, umreisst die etablierten Techniken und fokussiert dann auf die Rolle der Interaktivität in auditiven Displays. Modelbasierte Sonifikation wird als ein Rahmenwerk zur Erzeugung hochinteraktiver Echtzeitsonifikationen vorgestellt, und die Rolle der Interaktion als Bindemechanismus für die Erzeugung multi-modaler Explor11.06.2007 einige aktuelle in Bielefeld umgesetze Anwendungen von Interaktiver Sonifikation zusammengefaßt.

2005-05-30 1000 D-125
"Haptics at Force Dimension: from research to applications"

Patrick Helmer, Force Dimension, Lausanne, Switzerland
Es werden die auf der Force Dimension beruhenden Technologien und daraus resultierende Anwendungen gezeigt werden. Mitgebracht und vorgeführt werden die Geräte OMEGA und DELTA. Anhand von Bildern gezeigt werden unter anderem Weltneuheiten wie z.B. der erste Einsatz von haptischen Geräten bei offenen chirurgischen Eingriffen (wird Anfang Mai zum ersten Mal präsentiert) Die Bandbreite deckt unter anderem auch z.B. den Einsatz von haptischen Geräten bei Konsumentenanwendungen ab. Hier wurde die FD Technologie an einen Partner in den USA im Gamekonsolenbereich lizensiert, der nun in Zusammenarbeit mit führenden Spieleherstellern Anwendungen entwickelt.

2005-05-14 1415 D-129
"Computer- und/oder Medienkunst - ein Einführungsgespräch"

Prof. Kurd Alsleben, HfbK

2005-04-15 1315 F-334
"Collaborative Creation of 3D Digital Models"

Prof. Wolfgang Stürzlinger, York University, Toronto, Canada
Easy creation of 3D digital models is important for many application areas, such as architecture, industrial and mechanical design, creation of simulations and training environments, animation, and entertainment. Most commercial 3D packages have very complex user interfaces and are targeted towards the final stages of design, which focuses on details, rather than on the early stages, where the important design decisions are made.

We present several new 3D design systems that afford both rapid creation of 3D scenes as well as easy manipulation of arbitrary composite objects. We then discuss how people collaborate to create digital models and present a new a new infrastructure to enhance the collaboration. Finally, we present an overview for several other research projects.

2005-04-11 0000
"Perspektiven Interaktiver Sonifikation"

Dr. Thomas Hermann, University of Bielefeld