Delad bild. Till vänster: kvinna i kontor som testar AI-hjälpmedel för synskadade. Till höger: Niklas Mattson, ordförande i Synskadades riksförbund med vit käpp i handen.

Javascript är avstängt

Javascript måste vara påslaget för att kunna spela video
”Jag vill veta här är trappan, inte där var trappan” säger Niklas Svensson som är ordförande i Synskadades förbund som tycker att den digitala navigeringstekniken fortfarande är för långsam. Foto: Tang et al, Vincent Wipp

Så ska ljud och vibrationer hjälpa synskadade att se

Publicerad

AI-teknik, lätta kameror och sensorer kan göra det möjligt för synskadade att navigera i ett stökigt rum.

– Det hade ju varit fantastiskt om det kom en sådan teknik som man kan lita på, säger Niklas Mattsson, ordförande för Synskadades riksförbund.

I framtiden kan smart AI och innovativ teknik komma att ersätta den vita käppen och ledarhunden för synskadade personer. Ett kinesiskt forskarlag vid Shanghai Jiao Tong University har utvecklat ett nytt bärbart system för synskadade som via kameror och sensorer ska översätta vad vi ser till något man hör och känner.

– Det dyker upp ny forskning från många olika håll, så det är spännande. Och tekniken går ju alltid framåt. Det blir mer och mer möjligt att göra olika tekniska lösningar som tidigare varit väldigt svårt, säger Johan Isaksson-Daun, forskare i biomedicinsk teknik vid Chalmers tekniska högskola.

Pipljud visar vägen

Systemet bygger på en kamera, som är monterad på ett par glasögon, skickar information till en mikrodator. Datorn kan sen med hjälp av AI-algoritmer analysera informationen. Den omvandlas sen till ljudsignaler som informerar användaren om hinder som är i vägen.

Användaren kan också ge röstkommandon till systemet för att nå till ett mål. Om målet är ett äpple på andra sidan rummet så analyserar systemet rummet för att identifiera äpplet och hittar sen en lämplig väg dit. Användaren guidas via pip-ljud för att orientera sig och hitta fram till målet.

Men kamerans synfält räcker inte alltid till. Systemet tar därför hjälp av ytterligare sensorer. De sitter på en sorts sträckbar plast, A-skin, en engelsk förkortning för artificiell hud. Den träs över handleden och längs med ett finger. Sensorerna skickar sen vibrationer som informerar användaren om något närmar sig från sidan. När man når målet kan man använda fingersensorerna för att finjustera den sista biten för att enklare nå objektet.

– Det tyckte jag var speciellt spännande. Jag har inte sett något liknande i det här fältet, säger Johan Isaksson-Daun.

Den vita käppen består ändå

Systemet är fortfarande i prototypstadiet och långt ifrån redo, om den faktiskt kommer kunna användas i det vardagliga livet är svårt att säga.

Men även om vi inte är där ännu och den synskadades vita käpp och ledarhund fortsättningsvis kommer ha en roll att spela så tror Johan på framtiden.

– Jag vill ändå tro att inom ett decennium kommer dyka upp flexibla lösningar som kommer göra förflyttningar i vardagen enklare för personer med synnedsättning.

Hur är det att se med hjälp av en kamera, sensorer och AI?

Så arbetar vi

SVT:s nyheter ska stå för saklighet och opartiskhet. Det vi publicerar ska vara sant och relevant. Vid akuta nyhetslägen kan det vara svårt att få alla fakta bekräftade, då ska vi berätta vad vi vet – och inte vet. Läs mer om hur vi arbetar.