Wie Alarme auf dem Smartphone (nicht) umgesetzt werden sollten

Fallbeispiele

Mittlerweile können iOS-Geräte akustische Alarme ausgeben, wenn sie per Mobilfunk Gefahreninformationen empfangen. Die Umsetzung ist jedoch undurchdacht und weist Mängel der Barrierefreiheit auf. Es wurde nur das Funktionsprinzip klassischer zentraler Alarmanlagen mit seinen Einschränkungen kopiert, ohne die zusätzliche Usability auszureizen, die ein Smartphone bieten kann.

Aktuelle Umsetzung

Momentan ist der folgende Workflow umgesetzt:

Warum ist das schlecht?

Die menschliche Reaktion auf eine Gefahrensituation kann in zwei sequentiell aufeinander folgende Phasen eingeteilt werden:

  1. Aufmerksamkeitslenkung: Der Mensch muss sich der Gefahr bewusst werden und die eigene Aufmerksamkeit auf den Ursprung lenken.
  2. Zielführendes Handeln: Basierend auf den zur Verfügung stehenden Informationen sowie körperlichen und mentalen Ressourcen wird ein Verhalten ausgeführt, um die Gefahr abzuwenden.

Das penetrante akustische Warnsignal ist in Phase 1 erforderlich, in phase 2 jedoch kontraproduktiv. Das Geräusch ruft gezielt eine intensive Reaktion des vegetativen Nervensystems hervor (Schreck), die bei der kognitiven Informationsverarbeitung hinderlich ist. In Phase 2 müssen die mentalen Kapazitäten möglichst frei sein, um die Hinweise richtig zu interpretieren.

Der folgende Workflow würde dem Zweck weitaus mehr gerecht werden:

Blindenspezifischer Benefit

Blinde nutzen den Screenreader VoiceOver zum Vorlesen des Bildschirminhalts. Normalerweise wird bei anderen Audio-Quellen die Lautstärke reduziert, während VoiceOver spricht (Audio Ducking). Die Lautstärke der Alarme wird jedoch nicht reduziert, weshalb es momentan für Blinde kaum möglich ist, die Hinweise zu lesen, während der Alarm ertönt. Mit dem hier vorgeschlagenen sequentiellen Workflow würde sich dieses Problem elegant erübrigen.