augmented reality для слепых
Feb. 22nd, 2019 01:29 pmСегодня видел слепого, сканирующего тросточкой тротуар, и вдруг сообразил, что в этой области возможно красивое решение на стыке Computer Vision & тактильной обратной связи с достаточно широким каналом.
Камеру можно на лоб (для более интуитивного управления по трём осям), а тактильную обратную связь раскидать по всей ладони (там достаточная воспринимающая плотность) перчаткой. Так и длина трости перестаёт быть проблемой, и можно "видеть" куда больше, чем форму тротуара.
Это был бы, конечно, не киборганический симбиоз доктора Добеля, а скорее доступное неинвазивное решение из off-the-shelf компонент.
UPDATE (via
a_p): существует устройство Brainport, проектирующее картинку на язык.
Камеру можно на лоб (для более интуитивного управления по трём осям), а тактильную обратную связь раскидать по всей ладони (там достаточная воспринимающая плотность) перчаткой. Так и длина трости перестаёт быть проблемой, и можно "видеть" куда больше, чем форму тротуара.
Это был бы, конечно, не киборганический симбиоз доктора Добеля, а скорее доступное неинвазивное решение из off-the-shelf компонент.
UPDATE (via
no subject
Date: 2019-02-22 02:47 pm (UTC)no subject
Date: 2019-02-22 02:53 pm (UTC)Язык, конечно, тоже чувствительная штука, но как там с локализацией сигнала? Мне почему-то кажется, что с языка получаются "средние значения по палате", а насколько им можно понять, где конкретно солёно, где горячо, а где кисло?
no subject
Date: 2019-02-22 02:59 pm (UTC)