- Werbung -

Ein Mac ist, wie jeder andere brave Computer auch, ein Gerät, dessen Output man sehen kann, wenn, ja wenn man ihn denn sehen kann. Ich, Martin, aktuell 55 und seit kurzem Mitglied beim Auge e. V., RG Frankfurt, kann genau das nicht, und dies jetzt schon seit 45 Jahren. Ich bin aufgrund eines - sagen wir mal - Unfalls vollständig erblindet. Und für Leute wie mich gibt es seit Mac OS X 10.4 (Tiger) die seither und bis heute konsequent ausgebaute Bedienungshilfe VoiceOver (VO). Wie der Name schon sagt, geht es dabei um die Idee, den Inhalt einer Display-Anzeige entweder wortwörtlich wiederzugeben oder diesen, wo notwendig und möglich, sprachlich oder durch aussagekräftige Sounds so zu interpretieren, dass jemand, der keine visuelle Kontrolle über das Geschehen am Bildschirm hat, trotzdem eine möglichst plausible Vorstellung hiervon bekommt und durch Eingabe passender Bedienungsschritte und Befehle per Tastatur oder auch per Spracheingabe agieren oder reagieren kann.

Klar dürfte jedem sein, dass das Arbeiten am Mac mit VO-Unterstützung weitgehend ohne Einsatz einer Maus passiert. Auch dürfte jedem sofort die Tastatur als denkbarer Maus-Ersatz einfallen. Beides ist richtig. Aber wie muss man sich das mit der Interpretation von Apps, Widgets, Buttons, Symbolleisten, Level-Reglern etc. vorstellen? Genau hierbei kommt die Cleverness eines Hilfswerkzeugs wie VoiceOver ins Spiel. VoiceOver kennt nämlich eine Vielzahl der in der Mac-Welt üblichen Design- und Aktionselemente und ist im Idealfall in der Lage, diese zu interpretieren, sobald sie  sich im so genannten Focus der Anwendung befinden. VoiceOver arbeitet also gewissermaßen nach einer Art Lupenprinzip. Befindet man sich z. B. mit dem Focus von VO im Finder, ist dieser die von VO primär überwachte Anwendung. Geschieht im Wirkungsbereich irgend einer anderen Anwendung etwas Wesentliches, wird dies allerdings trotzdem durch eine entsprechende Meldung wie „z. B. Safari benötigt Aufmerksamkeit“ signalisiert, so dass man zu der betreffenden App umschalten und den aktuellen Sachstand überprüfen kann.

Und zu was benötigt denn nun jemand, der nichts sieht, überhaupt einen Computer? Diese Frage habe ich schon sehr oft gestellt bekommen, und wäre ich selbst nicht blind, würde ich sie wahrscheinlich genauso und trotz des Wissens um Hilfstechnologien wie VoiceOver stellen. Etwas vereinfachend kann man sagen: Alle Apps, deren Ein/Ausgabe grundsätzlich textbasiert funktioniert, können von blinden Anwendern am Mac nach kurzer Einarbeitungszeit nahezu ohne Einschränkung genutzt werden. Somit gehen also ohne weiteres Editoren wie TextEdit, Pages, Notizen etc., das Excel-Pendant Numbers sowie Anwendungen wie Mail und Safari. Ebenfalls ohne Einschränkung tun Apps wie iTunes, FaceTime, DVD-Ripping-Tools wie MDRP, Media-Player wie VLC für Mac, OCR-Programme wie ExactScan oder FineReader. Und damit dürfte sich auch die Frage, weshalb jemand, der blind ist, überhaupt einen Computer verwendet oder gar benötigt, von selbst erledigen. Dank solcher Hilfsmittel wie VoiceOver sind blinde Anwender heute in der Lage, in sehr vielen bürotechnischen wie auch in kaufmännischen Berufen tätig zu sein. Auch im Bereich Musikproduktion entwickeln sich aktuell durch die endlich gegebene Nutzbarkeit solcher Anwendungen wie ProTools völlig neue, aber gerade für diesen Anwenderkreis höchst interessante Tätigkeitsfelder.

Aber geht denn für Blinde am Mac wirklich alles? Ganz klar nein. Schluss ist, jedenfalls nach derzeitigem Stand der Technik, wenn Mac-Apps vorwiegend Graphik-basierte Interfaces für deren Bedienung verwenden oder wenn deren Arbeitsergebnisse vorwiegend graphisch orientiert sind wie z. B. bei Foto- oder Video-Tools. Das bedeutet allerdings nicht, dass speziell der Bereich Video für blinde Anwender völlig außer Kurs ist. Spätestens seit mit der Markteinführung des iPhone 3-GS 2009 VoiceOver auch auf allen Mobil-Geräten von Apple eingeführt wurde, können zumindest die Bordmittel dieser Geräte zur Video-Herstellung durchaus auch blinden Auges bedient werden und bringt man die Kamera eines iPhones mit einer der gängigen OCR-Apps zusammen, fällt einem ziemlich sicher ein weiterer, gerade für Blinde interessanter Anwendungsaspekt für Smartphones ein. Endlich sind z. B. gedruckte Speisekarten in Restaurants hiermit so gut wie kein Problem mehr, vom Sortieren der täglichen Post mal eben aus der Hosentasche heraus ganz zu schweigen.

Aber warum geht das alles denn nur bei Apple? Für Windows gibt's doch auch so was wie Sprachausgaben für den Bildschirminhalt und Android soll doch auch irgendwie …? Beides ist richtig. Mindestens seit Erscheinen von Windows XP gibt es von Microsoft eine Speech API, welche sich ScreenReader-Anwendungen wie z. B. JAWS (steht für Job Access With Speech) als Schnittstelle zum Betriebssystem zu Nutze machen und damit inzwischen durchaus alltagstaugliche Einsatzergebnisse erzielen. Software-Schöpfungen wie JAWS sind kommerziell erhältliche Produkte, kosten also zusätzliches Geld. Und spätestens dann, wenn der Anschaffungspreis einer ScreenReader-Lizenz, wie in Deutschland üblich, schon mal eben das Dreifache des Anschaffungspreises eines handelsüblichen PCs ausmacht, kommt der eine oder andere Anwender schon mal ins Grübeln darüber, ob das mit den Zugangshilfen nicht eigentlich eine unglaubliche Abzocke darstellt. OK, wer gute Software liefert, mag gerne dafür gutes Geld verdienen. Aber was hier passiert, hat schon nicht mehr viel mit ehrlichem Lohn für ehrliche Arbeit zu tun.

Dies vor Augen, machte sich um 2006 Mr. Michael Curran aus Melbourne zusammen mit einem Kommilitonen daran, einen ScreenReader für Windows auf Open-Source-Basis zu entwickeln. Heraus kam das bis heute höchst populäre Produkt NVDA (steht für Non Visual Desktop Access), welches inzwischen qualitativ mit den kommerziellen Entwicklungen durchaus mithalten und diese in einigen Punkten sogar klar übertreffen kann. Somit ist es also inzwischen kein unumstößliches Dogma mehr, dass jemand, der blind einen Windows-PC nutzt, tatsächlich bloß behinderungsbedingt mehr hierfür bezahlen muss.

Denke ich an Android, denke ich an TalkBack, eine von Google selbst initiierte ScreenReader-Entwicklung für Android-basierte Smartphones und Tablets. Toll, mag mancher denken; da ist sie dann doch endlich, die Alternative zu Apple. So dachte ich anfangs auch… und wurde sehr rasch ernüchtert. Während Apple nämlich VoiceOver zum festen Bestandteil der hauseigenen Software-Produkte gemacht hat, welches man bei Bedarf lediglich aktivieren muss, ist die Verwendung von TalkBack unter Android nach wie vor eine optionale Erweiterung, welche zunächst mal runter geladen werden muss, wozu man, will man das blind erledigen, auf jeden Fall Hilfe von wem auch immer benötigt. Und so geht's leider munter weiter und Besserung ist derzeit weit und breit nicht in Sicht.

Auch wenn dem Einen oder Anderen von Euch jetzt vielleicht etwas unwohl wird: Apple hat - jedenfalls aus der Sicht blinder und sehbehinderte Anwender weltweit - die Idee der Inclusion bei der Entwicklung von Informations- und Kommunikationsprodukten ganz eindeutig am besten verstanden und bei Hard- und Software in hohem Maße umgesetzt. Was Wunder also, dass die Beliebtheit von Apple-Produkten bei Sehgeschädigten weltweit seit Jahren kontinuierlich steigt? Ach, hatte ich schon erwähnt, dass VoiceOver außer englisch noch rund 20 weitere Sprachen fließend und mit super gut klingenden Stimmen spricht?

Wer mehr über all das erfahren möchte, mag mich gerne anschreiben; Kontaktdaten am Anfang des Artikels nutzen.