Google更新可協助身障者辨識前方景象的Lookout App 同樣加入自動生成式人工智慧技術輔助
从Google I/O 2018提出,借助人工智慧协助视力障碍者「看见」前方物件的Lookout App,在此次Google I/O 2024宣布更新消息中,则是增加可大声朗读长篇文章,并且加入在拍摄图像寻找特定物品功能。
其中拍摄寻找特定物品功能,将能协助视力不佳或失明的身障者透过Lookout App寻找座位、桌子、车辆、餐具,或是浴室等位置,并且能让身障者借此判断特定物品所在方向,以及推估距离。
而借由自动生成式人工智慧技术辅助,Google也让Lookout App能更即时、准确地描述手机拍摄画面细节,借此协助视障者更快判断前方景象,同时透过更多描述建构完整环境认知。
此外,在Look to Speak功能中,除了维持原本可透过内建短语内容,让身障者直接点选与人交流,目前更添加透过表情贴图、特殊符号,或是直接以照片内容触发描述语音,借此让身障者也能借此作更传神的沟通。
在Google Lens的更新,则是加入描述镜头拍摄画面中特定物件,例如餐厅、ATM、出入口等,同时也会陈述相对距离、方位,同时可透过清楚语音指示身障者如何绕过障碍物前往特定地点。
其他更新部分,则是将先前已经在行动版Google Maps加入的轮椅通道资讯带到桌机版,让更多使用者能透过Google Maps寻找预计前往地点是否提供无障碍出入口设计,同时也能确认前往地点是否提供无障碍厕所、座位或停车场设计。
在先前公布消息中,Google与罹患肌肉萎缩症的游戏实况主Lance Carr合作,共同打造Project Gameface操作介面,让Lance Carr能借此以头部操作滑鼠进行游戏,并且与印度社会企业Incluzza合作推广此介面,让更多身障者能以此更方便操作Android装置,同时也透过GitHub将Project Gameface相关程式编码开源,借此推动更多运用Project Gameface为基础的应用可能。
《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》