MIT最新AI面部識別研究:AR技術協助情緒偵測
“自閉癥成人的感知神經連接可能是“嘈雜的”(noisy)或低效的。”
作者:Claire編輯:tuya出品:財經涂鴉(ID:caijingtuya)
對大部分健康的人來說,識別人臉上表達的情緒很容易。微笑可能意味著幸福,而皺眉可能意味著憤怒,但自閉癥患者在完成這項任務時有很大的困難。來自麻省理工學院的一支研究團隊,訓練出一個人工神經網絡來處理面部情緒識別信息,以幫助自閉癥患者更好地識別人們臉上表達的情緒。
6月15日,麻省理工學院教授腦研究所教授Kohitij Kar在《神經科學雜志》(The Journal of Neuroscience)上發表了一項名為“自閉癥非典型面部情緒處理的行為和神經標記的計算探索”(A computational probe into the behavioral and neural markers of atypical facial emotion processing in autism)的新研究。該研究利用人工智能在頭腦中建模計算,揭示了大腦的內部工作機制。
在過去的一項實驗中,研究人員向自閉癥成年人和由神經功能正常的被試者組成的對照組,展示了一系列面部圖像。這些圖像由軟件生成,在一個從恐懼到快樂的范圍內變化,參與者需要迅速判斷這些面孔是否描繪了快樂。與對照組相比,患有自閉癥的成年人需要看到面部表現出更高程度快樂的圖像,才能識別出快樂這一特征。
Kar受到這項實驗的啟發,訓練了一個人工神經網絡,這是一種受大腦結構啟發的復雜數學函數,來完成同樣的任務,即確定人臉圖像是否令人高興。Kar的研究結果表明,自閉癥成人的感知神經連接可能是“嘈雜的”(noisy)或低效的。
Kar認為這些視覺處理的計算模型在未來可能有多種用途。“我認為面部情感識別只是冰山一角。”,他認為這些視覺處理模型也可以用來選擇、甚至生成診斷內容。例如,人工智能可用于生成電影和教育材料等內容,以最大限度地吸引自閉癥兒童和成人。
根據這項研究,這些計算模型有可能被用來幫助調整增強現實(AR)眼鏡中的面部和其他相關像素(pixels),以改變自閉癥患者看到的東西,例如通過夸大人們臉上的快樂或其他情緒的水平,以幫助自閉癥患者更好地識別。
即使是在更簡單的形式中,安裝了面部情緒識別軟件的AR眼鏡也可以檢測到人們的情緒,并覆蓋文本提示來幫助佩戴眼鏡的自閉癥患者,以便向他們描述與他們互動的人可能的情緒狀態。
原文標題 : MIT最新AI面部識別研究:AR技術協助情緒偵測
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
11月7日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯網行業年度評選
-
11月20日立即報名>> 【免費下載】RISC-V芯片發展現狀與測試挑戰-白皮書
-
即日-11.25立即下載>>> 費斯托白皮書《柔性:汽車生產未來的關鍵》
-
11月27日立即報名>> 【工程師系列】汽車電子技術在線大會
-
11月28日立即下載>> 【白皮書】精準洞察 無線掌控——283FC智能自檢萬用表
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯網產業大會


分享













