中新網上海3月2日電 (記者 陳靜)只需一枚攝像頭和一對耳機,畫面能夠被轉化成語言,描繪場景、提示風險,讓視障者出行更安全、生活更便捷……記者2日獲悉,在復旦大學自然語言處理實驗室(FudanNLP)師生的努力下,基于多模態大模型“復旦·眸思”(MouSi)為視障者量身打造的“聽見世界”APP上線,將成為視障人士的生活助手與智能管家。
2023年上半年,復旦大學自然語言處理實驗室發布了開發MOSS對話式大型語言模型,被稱為中國版的GPT,僅用半年時間多模態模型“眸思”問世。據介紹,“眸思”和基于文本的MOSS不同,它能夠理解并識別圖片內容,致力于成為視障者的一雙“眸”。
基于“眸思”,“聽見世界”APP為視障者日常生活需求量身打造街道行走模式、自由問答模式和尋物模式。在街道行走模式中,“眸思”如一位忠實的向導。紅綠燈、十字路口、障礙物……它能細致掃描道路情況,提示潛在風險,陪伴視障者安全通行“看不見”的漫漫長路。
在自由問答模式中,“眸思”則像一位貼心的朋友,走進博物館、藝術館、公園……捕捉四周景象的每個細節,用聲音構建豐富的生活場景,傳遞每一處日常之美。在尋物模式中,“眸思”將成為一名可靠的管家,被移動過的手杖、最愛口味的牛奶……它可以讓視障人士找尋日常物件變得輕松。
復旦大學自然語言處理實驗室張奇教授說:“人工智能發展日新月異,科技應該要改變更多人的生活,希望‘眸思’能夠幫助視障人士走出家門,讓他們可以嘗試更多工作,為人生書寫更多可能。”據介紹,該項目的主導者都是“初出茅廬”的學生們,在組內頭腦風暴會上,年輕學子總能提出開創性想法,能夠找到另辟蹊徑的解決辦法。
自去年9月以來,復旦大學自然語言處理實驗室圍繞GPT4-v復現多模態大模型,對核心關鍵點開展研究,希望提升單項任務的準確率和強化大模型的學習。為了更好地感受視障者的難處,團隊成員模擬真實情境,蒙眼探索視障者“黑暗”世界。他們邀請視障人士加入,進一步摸清真實而具體的需求。
在基于幾億張圖片訓練出“眸思”大模型基礎上,針對視障者提出的各類需求,團隊又用上萬張圖片進行特殊樣本訓練,使“眸思”具備能夠適配更多場景的能力。據透露,今年上半年,團隊將結合AR升級APP內的定位精度細化至亞米級別。下半年,團隊希望將“眸思”升級為基于視頻的判斷。目前,更多模式正在開發中,比如,閱讀模式、解說模式等。
據了解,團隊計劃與NGO組織、智算中心和硬件廠商等開展合作,致力于讓視障者免費使用產品和相關服務。預計今年3月“聽見世界”APP將完成第一輪測試,在中國一、二線城市和地區同步開啟試點,根據算力部署情況進行推廣。(完)
關注微信公眾號(kjxw001)及微博(中國科技新聞網)

