In diesem Beitrag habe ich ein paar meiner Gedanken zusammentragen, die bei meiner jahrelangen Auseinandersetzung mit dem Thema bei der deutschen Rentenversicherung immer wieder aufkommen.
Ich werde kurz zusammenfassen, was sich im Bereich Desktop und Mobile verändert und welche neue Möglichkeit es gibt, mit seinen Geräten zu interagieren. Dann zeige ich die Probleme auf, die sich dadurch für digitale Barrierefreiheit ergeben und ende mit Vorschlägen, wie man seine Tests auf digitale Barrierefreiheit anpassen sollte, um die neuen Aspekte einzubeziehen.
Was sich an der Hardware verändert
1 – Wie unsere Geräte Informationen aufnehmen
Desktopgeräte: von der Maus und Tastatur, zur Hand!
Bis vor nicht allzu langer Zeit gab es nur zwei Möglichkeiten, auf Desktopgeräten zu interagieren: mit der Maus- und der Tastatur. Seit der Einführung der Touch-Monitoren hat sich dies nun um die Dimension des „mit der Hand berühren“ erweitert.
Auch wenn einigen von uns die Technologie schon länger bekannt ist, werden Multi-Touch-Aktionen oder Gestensteuerung (mit dem Finger ziehen, mit zwei Fingern zoomen und so weiter) aktuell auf Desktopanwendungen noch sehr wenig unterstützt.
Dennoch wird diese Technologie immer mehr voranschreiten und ich bin mir sicher, dass die Touch-Bedienung in ein paar Jahren die dominante Interaktions-Möglichkeit wird. Und natürlich wird das die Barrierefreiheit vor neue Herausforderungen stellen.
Mobilgeräte: Die neuen, fast unendlichen Möglichkeiten
Im Gegensatz zu unseren Desktopgeräten sind unsere mobilen Geräte mittlerweile schon wahre Alleskönner. Sie verfügen meist über mindestens eine Kamera, ein Mikrofon und weitere Sensorik. Sowohl die aktuelle Ausrichtung des Gerätes, als auch Bewegungen werden mittlerweile erkannt. Neben dem primären Eingabemedium in Form des Touchdisplays verfügen viele Geräte auch noch über Hardwareschalter sowie Sensoren, die zum Beispiel auf Tippen auf der Gehäuserückseite reagieren.
All diese neuen Arten, Informationen aufzunehmen und zu verarbeiten, müssen unter dem Aspekt der (digitalen) Barrierefreiheit berücksichtigt werden. Für viele dieser Funktionen müssen entsprechende Alternativen angeboten werden, da ein Großteil der neuen Möglichkeiten oftmals motorische Fähigkeiten voraussetzen. Menschen, die ihr Smartphone beispielsweise an ihrem Rollstuhl befestigt haben, sind nicht in der Lage auf die Rückseite zu klopfen oder die Ausrichtung des Geräts zu ändern. Es braucht also immer mindestens eine weitere Alternative, wie eine Funktion ausgelöst werden kann, zum Beispiel durch einen Button, der beim „Klicken“ dieselbe Funktion auslöst.
2 – Wie unsere Geräte Informationen wiedergeben
Wie wir gesehen haben, tut sich ziemlich viel darin, wie unsere Geräte Informationen von außen aufnehmen können. Wie diese Informationen allerdings an Nutzer wieder ausgegeben wird, ist leider immer noch recht eindimensional.
Die meisten Informationen erhalten wir immer noch über den visuellen Weg. Dinge stehen auf Webseiten oder auf unseren Smartphones und wir müssen sie eben lesen. Besonders für sehbehinderte Menschen ist das offenkundig ein großes Problem.
Um diese Informationen trotzdem aufnehmen zu können, gab es für Menschen mit Sehbeeinträchtigung bisher nur das Braille-Display. Das hat ihnen geholfen, visuelle oder auch akustische Informationen fühlbar und dadurch verständlich zu machen.
In jüngster Zeit ist jedoch – mehr aus Zufall – eine neue Möglichkeit der Informationsvermittlung eingeführt worden: Der Vibrationsalarm! Vibration wird mittlerweile für viel mehr, als nur zur Übermittlung von Alarmmeldungen genutzt, da Vibrationsmuster wesentlich mehr als nur singuläre Informationen tragen können.
Ein weiteres Beispiel für guten Output: Geldautomaten. Geldautomaten sind eine der wenigen Ausnahmen, die entstehende Barrieren für Menschen mit Sehbehinderungen wirklich kompensieren. Die Anzeige auf dem Display wird hier so serialisiert, dass die Position des Elements auf dem Display nicht mehr einziger Informationsträger ist. Durch Kopfhörer werden die Informationen dann auch nur an die bedienende Person ausgegeben.
Bestehende assistive Systeme auf Mobilgeräten
Im Gegensatz zu vielen Desktopgeräten haben alle Mobilgeräte bereits assistive Systeme implementiert. Die Screenreader wie VoiceOver von Apple und Talkback von Microsoft sind hier allerdings nur ein kleiner Teil des mit ausgelieferten Toolings.
Wer einmal die Liste der Bedienhilfen durchblättert, wird feststellen, dass je nach unterschiedlichen Bedürfnissen, eine Vielzahl von Möglichkeiten angeboten werden.
Hier drei Beispiele für assistive Hilfe auf Mobilgeräten:
- Tippdauer einstellen bzw. ignorieren wiederholter Berührung: Hier kann man die Dauer einstellen, in der das Gerät die Berührung als Tippen wertet oder in welchem Zeitraum auf doppeltes Tippen nicht reagiert werden soll. Das Gerät kann somit auf die Anforderungen von Menschen mit motorischen Einschränkungen angepasst werden.
- Nutzer, die nicht in der Lage sind, ihr Gerät zu schütteln, bietet der Assistive-Touch über die Einrichtung von „aktiven Ecken“ die Möglichkeit, dieses Verhalten zu simulieren. Die Schaltfläche wird dann entsprechend den Vorgaben über der eigentlichen Applikation angezeigt und löst die ausgewählte Aktion aus. Diese können auch andere Gesten wie das Scrollen (durch Wischen) oder andere Gestensteuerungen simulieren.
- Bei der Schaltersteuerung werden die Elemente der Oberfläche entweder zeitlich gesteuert oder durch selbst definierte Aktionen wie Bewegungen oder Geräusche gesteuert und ausgelöst.
Beispielsweise können durch Drehen des Kopfes Elemente oder Elementgruppen angesteuert und durch ein Klickgeräusch aktiviert werden.
Damit stellt eigentlich das Betriebssystem schon alternative Eingabemöglichkeiten bereit, die in der EN 301549 im Punkt 5.5.1 gefordert werden:
„Wenn IKT bedienbare Elemente hat, die zur Bedienung ein Greifen, Zusammendrücken oder Drehen des Handgelenks erfordern, muss eine barrierefreie alternative Möglichkeit der Bedienung, für die diese Handlungen nicht erforderlich sind, bereitgestellt werden.“
Welche Frage ergibt sich jetzt für die digitale Barrierefreiheit?
Hier stellt sich also jetzt die Frage: „Muss meine Software auch noch einmal diese alternativen Möglichkeiten anbieten, um normkonform zu sein? Und in welchem Umfang darf man direkt auf die Unterstützung durch die im Betriebssystem vorhandene Hilfen verweisen?“
Um dazu eine Entscheidung zu treffen, bedarf es noch weiterer Vorgaben:
- Native Apps in einer IOS Umgebung befinden sich in einem stark reglementierten und homogenen Umfeld. Android Apps treffen allerdings auf eine heterogene Hard- und Softwareumgebung.
- Web-Apps oder auch Webseiten oder Applikationen sind keiner festen Ablaufumgebung zugeordnet und können somit in den unterschiedlichsten Umgebungen betrieben werden. Hierbei kann aber auch nur in einem eingeschränkten Umfang auf die Peripherie der Ablaufumgebung zugegriffen werden.
Geht man nun von einer Verfügbarkeit der assistiven Systeme aus, gibt es noch weitere Aspekte zu betrachten: Einige der Möglichkeiten können nur alternativ verwendet werden. Assistiv-Touch und Voice Over lassen sich zum Beispiel nicht gleichzeitig aktivieren.
Zur Verwendung einer externen Tastatur an einem primär auf Touch-Bedienung ausgelegten System muss der entsprechende Schalter in den Bedienungshilfen aktiviert werden. Diese Einstellung beeinflusst jedoch auch die Funktionalitäten anderer Unterstützungen. So haben wir in einem App-Test festgestellt, dass bei einer Nutzung der Tastatur und gleichzeitigem VoiceOver, Elemente nicht mehr erreicht werden können.
Eine Vermischung der Anforderungen bringt hier also bisher nicht gekannte technische Abhängigkeiten zum Vorschein.
Fazit
Die aktuellen Mobile Devices bieten den Menschen mit Einschränkungen immer mehr Möglichkeiten zu alternativen Bedienungsweisen an. Diese Entwicklung freut mich sehr, führt aber für die Prüfinstanzen dazu, dass der Rahmen der Prüfung einer App erheblich differenzierter beschrieben werden muss.
Ein belastbares Testergebnis ergibt sich nur dann, wenn die folgenden zusätzlichen Parameter dediziert beschrieben werden:
- Art der Anwendung (native App, Browser basiert oder hybrid)
- Nutzungskontext (Tastatursteuerung, Touch Bedienung oder hybrid)
- Schalterstellung der Bedienhilfen in Abhängigkeit der Nutzungsklassen
Diese Matrix erhöht natürlich die Komplexität und den Umfang der Prüfverfahren. Mögliche Cluster aus Bedingungen und Prüfkriterien ließe sich eventuell aus der Anlage B der EN 301549 ableiten.