cubble: Multi-Device Assistance for Emotional Closeness and Communication in Relationships over a Distance

Der heutige Artikel stammt von Robert Kowalski, der sein Studium mittlerweile erfolgreich beendet hat. Hier berichtet er von seiner Diplomarbeit „cubble“. Das Projekt wird im Februar auch auf der International Conference on Tangible, Embedded and Embodied Interaction in Barcelona vorgestellt.

What is cubble about?

In today’s global society, the number of long distance relationships (LDR) is increasing. Naturally, couples want to keep in touch, share their emotions and feel connected despite the distance. Current approaches to solve this problem fall into three categories. First, the use of additional dedicated objects, which tend to be too inconvenient to be carried around and too easy to forget. Second, the utilization of common communication channels like social media or phones, which do not provide intimate closeness or have been confirmed as ineffective for maintaining intimacy. Third, mobile applications (apps) designed for LDR couples, which still lack evaluation.

00_cubble 01_cubble

cubble is a new hybrid interaction concept that aims at overcoming these limitations and which leverages the mobility advantages of mobile apps, by combining a stationary object for the domestic use and a smartphone application while being on the go. Detached from time and place, couples separated by distance are now enabled to continuously feel connected and share simple messages and emotions through colored light, haptics and thermal feedback.

Nudging the partner from far away

People can send a nudge to their loved one by simply tapping their cubble object at home or the screen of their smartphone once. Before sending this signal, the user can select one of eight predefined colors, which should accompany the nudge. Based on the receiver’s home or away location the nudge is forwarded to either the domestic or the smartphone cubble client.

02_nudge 03_nudge

A nudge sent from one’s domestic hardware cubble to the partner’s home cubble (left) and a nudge sent from a hardware cubble to the partner’s cubble app (right).

On the receiving partners end, the cubble message is then displayed via a colored light flash supported by vibration. During the user studies, partners used the colors to express short messages and feelings such as “I love you”, “I miss you”, “Thinking of you”, … or to coordinate their regular communication.

Extending nudges to tap patterns

Another possibility partners had was the tap pattern. This is basically a rhythmic extension of the nudge, by providing the users to record repeated taps and also keep the timing between them. However, this component was hardly used to create new kinds of messages, but most of the study participants actually used tap patterns to amplify their message or feeling.

04_hybrid

Holding hands always and everywhere

The feature that couples loved most about cubble was the holding hands functionality. This way, a “live connection” was established between the partners, providing the warm feeling of being in touch right now by holding hands. To do so, each partner has to hold one of their cubble clients and both start pulsating in a warm, yellow color. Additionally, the domestic cubble heats up on its top side to simulate the exchange of body heat between the partners.

How did the couples like it?

They loved it. Not only did the daily exchange between partners increase greatly, but they also had a strong feeling of connectedness and closeness and perceived the hybrid approach as very enriching. Especially the holding hands feature in conjunction with the hardware’s thermal feedback made it a truly unique and bonding experience for them. Besides these and more indications that cubble supports couples in experiencing emotional closeness and that it fostered their intimate communication, the favorite finding was that cubble made people smile.

Want to know more?

Please read the cubble TEI publication or feel free contact me anytime via my webpage.

Advertisements

Design and Requirements of a Low Cost Air Monitoring Hardware Platform for Android Phones

SenseDroid is a DIY citizen sensing platform for smart-phones. The overall project involves building a mobile sensor platform which gathers and reports information about the environment (air quality, radio-activity, noise, etc.) to citizens, scientists and city stakeholders.

Martin Jaschkowitz defended his thesis on the „Design and Requirements of a Low Cost Air Monitoring Hardware Platform for Android Phones“ last week. He focused on the hardware part of the SenseDroid project. This involved, developing a low-cost and easy to build sensor platform which can be connected to Android phones to gather information about the environment. He analyzed hardware aspects such as sensors or board alternatives, as well as energy/battery management, software issues, and communication with phones.

Martin produced the following prototype:

Overview of the components of the SenseDroid platform

A designers‘ friendly programming toolkit for smartwatches.

Dominik Paluch presented last week his work on making Processing sketches run on the Wimm One smartwatch. His work involved doing a survey of existing smartwatches on the market, and a survey of smartwatches developers‘ needs.

We picked the Wimm One as it is a Standalone watch (doesn’t have to be connected to a phone), it runs Android and comes with and interesting set of inputs (sensors + capacitive touch screen).

Dominik reviewed a set of developing environments for non-trained programmers: Scratch, Alice, Processing, App Inventor… And decided to extend the Alpha version of Processing for Android.

The project is available on Google Code, Dominik modified the Processing IDE, its compiler to Android and developed code to support native Wimm One gestures, further developed a set of Processing Libraries facilitate access to the accelerometer data, the magnetometer data and support custom gestures input.

Katastrophenmanagement auf dem »Curve«

Der heutige Artikel stammt von Axel Hösl, Diplomant in der Arbeitsgruppe Mensch-Maschine-Interaktion von Prof. Butz. Er gibt Einblick in seine aktuelle Abschlussarbeit, bei der er eine Anwendung für das Katastrophenmanagement auf dem Curve entwickelt. Dieses Projekt erarbeitet er in Kooperation mit dem Bayerischen Staatsministeriums des Inneren, die sich darum kümmern, Qualität und Effizenz in Notrufbearbeitung und Katastrophenschutz zu gewährleisten, Thomas Gläser von envis precisely, der ihn bei der Entwicklung des Interfaces unterstützt und Fabian Hennecke vom Lehrstuhl.

(Dieser Beitrag erscheint parallel auch in ähnlicher Form im Blog von envis precisely.)

Startschuss: Eintauchen in die Materie

Zu Beginn meines Projektes hatte ich noch keine Erfahrungswerte aus dem Bereich Katastrophenschutz, daher verdeutlichten wir uns zuerst den Arbeitskontext und befragten die Mitarbeiter einer Integrierten Leitstelle (ILS). Bevor sie dort arbeiten können, durchlaufen die Mitarbeiter Ausbildungen in den Bereichen Feuerwehr und Rettungsdienst sowie am Einsatzleitsystem. Das macht sie zu Expertennutzern mit sozialer und technischer Kompetenz. Beide Dienste werden von ihnen alarmiert und bei Bedarf vom Katastrophenschutz über die Einsatzbereiche mehrerer ILS hinweg koordiniert.

Um die Qualität der Notrufbearbeitung zu sichern, werden die Kontrollräume der ILS mit dem Ziel gebaut die Stresstoleranz zu fördern. Die Vorgaben dafür beziehen sich hauptsächlich auf Architektur und Einrichtung. Eine Ausweitung dieses Konzepts auf die Ebene der Nutzerschnittstelle will ich näher untersuchen.

Die Interaktion am Curve

Ergonomie ist dabei ein wesentlicher Bestandteil, weshalb der Curve als Grundstein der weiteren Entwicklung ausgewählt wurde. Seit 2009 wird Curve – ein vertikal gekrümmtes Display – entwickelt, um die Möglichkeiten einer durchgehenden Arbeitsfläche zu untersuchen, die Vertikale und Horizontale übergangsfrei miteinander verbindet. Während der Entwicklung des Curves wurden mehrere Studien zur Ermittlung geeignter ergonomischer Parameter durchgeführt und deren Ergebnisse in seiner Konstruktion umgesetzt. Damit eignet sich der Curve für den Einsatz in den ILS und bietet zudem durch seine großen Abmessungen (120 cm Breite, 44 cm Höhe sowie 10 cm Kurvenradius) genügend Fläche um eine Vielzahl an Informationen darstellen, wie sie im Fall der Koordination von Rettungsdienst und Feuerwehr üblich sind.

Das Konzept im Papierprototyp

Das Konzept wurde schnell in ersten Papier-Prototypen umgesetzt und iterativ mit Experten des Katastrophenschutzes und Disponenten der ILS Ingolstadt evaluiert.

Zuerst wurden die Grundbestandteile des Systems und ihre Verteilung der Elemente auf Vertikale und Horziontale bestimmt. Wichtige Information über Einsatzdaten, Ort, Umgebung und Verlauf sollten ständig sichtbar sein und wurden deshalb in der vertikalen Arbeitsfläche untergebracht.

Eine Karte füllt diese Arbeitsfläche, wird aber an ihren Rändern durch reservierte Bereiche begrenzt. Zur Kartenarbeit werden am linken Rand des Displays Tangible User Interfaces (TUI) platziert.

Für offene Einsätze sowie eine Zusammenfassung der Einsatzdaten ist ein Bereich am rechten Displayrand vorgesehen. Eine Zeitleiste welche die Historie des Einsatzes zeigt, befindet sich am oberen Rand.

Aufeinander folgenden Arbeitsschritte wie Kommunikation, Dispostion, Objektschutz und Betreuung wurden in der horizontalen Arbeitsfläche angeordnet.

Die Buttons für die Arbeitsschritte befinden sich in den Ecken der Horizontalen und wurden gemäß ihrer Bearbeitungsreihenfolge im Uhrzeigersinn (beginnend unten links) platziert.

Im Übergang zwischen beiden Arbeitsfläche befindet sich eine Zwischenablage. Hier werden Objekte abgelegt auf die man später einsatzübergreifend wieder zugreifen möchte. Die vertikale Position des Objekts in der Zwischenablage – oben oder unten – gibt an in welcher Arbeitsfläche die zum Objekt hinterlegten Informationen angezeigt werden. Eine Positionierung in der Mitte steht dabei für beide Arbeitsflächen.

In darauf folgenden Sitzungen entstand ein Prototyp in Originalgröße, der zu klären half, wie groß in etwa einzelne Elemente sein sollten und wie die Elemente innerhalb der einzelnen Arbeitsflächen zueinander positioniert und proportioniert werden sollten.

Die Tangibles wurden in dieser Version durch eine Softwarelösung ersetzt. Probleme bestanden vorallem beim Verlust eines Tangibles, beim Kontextwechsel hinzu einem anderen Einsatz – eine Konfiguration kann nicht wieder hergestellt werden – und die maximale Anzahl an TUIs die aufgelegt werden können ist geringer als bei einer Softwarelösung mit Scrolling.

Zudem wurden die Position der reservierten Flächen in der Vertikalen getausch: die offenen Einsätze befinden sich nun links, die Kartenobjekte rechts. Das hat zum Vorteil, dass die Liste mit offenen Einsätzen der Leserichtung nach vor den Einsatzdaten kommt, was dem master/detail pattern in Leserichtung entspricht.

Die Evaluation eines Click-Dummies am Curve soll zudem helfen valide Systemgrößen für Schriftgröße, Icons und UI-Elemente zu finden. Die dabei ermittelten Größen der Elemente sowie ihre Verteilung wird anschließend in einem lauffähigen Prototypen implementiert. Studien mit Expertennutzern an diesem System sollen Daten liefern die das Fundament wissenschaftlicher Aussagen bilden.

Der Click-Dummy sowie die Implementierung sind zur Zeit noch in Entwicklung. Ende März 2013 werde ich das Projekt abschließen und den Prototypen in einer Präsentation vorstellen.

Abschlussarbeit: Attjector

In diesem Blog-Eintrag stellt Felix Reitberger seine Abschlussarbeit vor.

In der Arbeit geht es um den Bau einer in Echtzeit steuerbaren, kardanischen Aufhängung für die Schulter – kurz einem Attjector. Warum Attjector? Die Idee dieses Nutzerinterfaces ist es, einem die Interaktion mit einem projizierten Inhalt in einer mobilen Anwendung zu verschaffen. Wir alle kennen das Problem – 2 Tage vor einer Präsentation ist noch nichts fertig. Neue, spektakuläre Inhalte gibt es eigentlich nicht und die Zahlen um die es geht sind bestenfalls trocken, schlimmstenfalls existenzbedrohend. Daher suchen wir eine Präsentationsmethode, die des Publikums Aufmerksamkeit auf ansprechende Effekte lenkt und ihm ein höheres Maß an Interaktion ermöglicht als die übliche one-to-many Kommunikation. 
Mit einem Tablet lässt sich ja schon eine viel intimere Präsentationssituation herstellen, als dies in dem klassischen Setup (Tageslichtprojektor oder Beamer und Publikum) möglich wäre. Gestensteuerung ermöglicht das direkte Teilnehmen des Zuhörers an der Vorstellung. Der Attjector geht hier noch einen Schritt weiter, dadurch dass er aufgrund der geringen Leuchtkraft von Picoprojektoren nur im Dunkeln funktioniert erzwingt er das Ausblenden der Umgebung und lenkt durch diese Einschränkung die Aufmerksamkeit des Zuhörers direkt auf die dargestellten Inhalte.
Dieses Gerät benötigt eine in Echtzeit steuerbare kardanische Aufhängung (sie muss den Gesten des Präsentierenden folgen können und seine unbewussten Bewegungen ausgleichen).

Da meine handwerklichen Fähigkeiten sehr limitiert sind, griff ich auf die Methoden des Rapid Prototying (3D Druck & Lasercutting) zurück um die passend scheinenden Teile herzustellen. Es stellte sich aber schnell heraus, dass „herstellen“ in diesem Fall hieß über viele Iterationen nach und nach besser und besser passende Teile zu entwickeln und zu drucken beziehungsweise auszuschneiden. Diese stehen auf Thingiverse (dem github der 3D Drucker) zum Download und zur Weiterentwicklung bereit.