Erfolgreiche Halbzeit-Demo “OpenData2Guide ScaleUp“

Von Bildschirmlesern und Sprachassistenten bis hin zu haptischem Feedback und innovativen Apps: Smartphones sind zu unverzichtbaren Werkzeugen für Sehbehinderte geworden. Im Zuge des BMVI-Forschungsprojekts „OpenData2Guide ScaleUp“ untersuchen wir, welche neuen digitalen Möglichkeiten sich hieraus für den ÖPNV erschließen. Erste Zwischenergebnisse wurden nun von blinden Testern erfolgreich erprobt.

 

Das Problem: Individueller Informationsbedarf unterwegs

Blinde und sehbehinderte Menschen noch immer viele Herausforderungen meistern, wenn sie sich im Alltag fortbewegen – unter anderem auch an Haltestellen und Bahnhöfen. Für Betroffene stellen sich hier viele Fragen: Wie ist die Haltestelle aufgebaut? Wie lautet der Fahrplan hier? Welche Bahn steht gerade vor mir?

Diese und weitere relevante Informationen stehen oftmals nicht oder nur eingeschränkt zur Verfügung. Dabei ist der öffentliche Nahverkehr insbesondere für die Selbstbestimmtheit von Blinden und Sehbehinderten enorm wichtig.

 

Der Lösungsansatz: Ein adaptiver App-Ansatz für alle

Das Forschungsprojekt setzt an der gezielten Informationsvermittlung an. Hierzu werden drei Elemente prototypisch entwickelt und evaluiert:

  • Inklusion: Ziel ist es nicht, eine vereinfachte App für Blinde zu erstellen. Vielmehr soll erprobt werden, wie auch komplexe Navigations-Apps so ausgestaltet werden können, dass sie barrierefrei bedienbar sind (u.a. mit Audioausgabe).
  • Kontexterkennung: Durch die Erfassung der Nutzerposition via GPS und Bluetooth können genau die Informationen mit Notifications zur Verfügung gestellt werden, die in der jeweiligen Situation benötigt werden (z.B. Informationen zur Haltestelle).
  • Natürliche Interaktion: Um gezielte Abfragen von Informationen zu ermöglichen, wird ein KI-basierter Audio-Chatbot herangezogen. Mit ihm können sich Nutzer natürlich unterhalten und so z.B. die nächste Busverbindung erfragen.

 

Der aktuelle Prototyp weist bereits alle diese Merkmale auf, sodass die blinden User am „lebenden Objekt“ testen und Feedback geben konnten. Nach drei Stunden intensivem Ausprobieren stand fest, dass der Ansatz definitiv Potential aufweist. Mehr Infos werden wir in Zukunft hier posten!