5月19日,記者從西北大學(xué)獲悉:近日,該校生命科學(xué)學(xué)院教授郭松濤團(tuán)隊(duì)基于行為學(xué)的分析原理,利用人工智能技術(shù),設(shè)計(jì)了自動(dòng)識(shí)別與量化動(dòng)物個(gè)體行為的開源AI框架,實(shí)現(xiàn)了行為自動(dòng)化監(jiān)測(cè)領(lǐng)域的技術(shù)突破。
動(dòng)物行為是人類常見但又機(jī)理復(fù)雜的自然現(xiàn)象?!白怨乓詠?,人類習(xí)慣通過觀察動(dòng)物行為來了解動(dòng)物習(xí)性。比如說,我們會(huì)通過觀察家養(yǎng)寵物的行為來判斷其健康狀態(tài)和飲食喜好等?!眻F(tuán)隊(duì)成員劉佳表示,動(dòng)物行為通常由多樣化的姿勢(shì)和動(dòng)作模式組成,且行為具有連續(xù)性和交互性,同一類型的行為時(shí)間跨度大,這增加了普通觀察者有效識(shí)別、量化和比較不同動(dòng)物類群行為的難度。對(duì)動(dòng)物行為進(jìn)行準(zhǔn)確、系統(tǒng)觀察記錄并精準(zhǔn)定量分析是動(dòng)物行為學(xué)研究的基礎(chǔ)。
隨著科技進(jìn)步,近幾十年來,越來越多的研究人員通過視頻記錄來研究動(dòng)物行為?!半m然視頻數(shù)據(jù)可通過專業(yè)軟件輔助分析,但要精準(zhǔn)記錄動(dòng)物行為特征,仍需要花費(fèi)很長(zhǎng)時(shí)間仔細(xì)察看視頻。比如一段5分鐘的野生動(dòng)物錄像,我們可能要一幀一幀地反復(fù)看,翻來覆去看近1小時(shí)?!惫蓾榻B,當(dāng)面對(duì)復(fù)雜環(huán)境和數(shù)量眾多的野生動(dòng)物時(shí),這一工作會(huì)更加耗時(shí)和低效,嚴(yán)重制約了對(duì)動(dòng)物各種行為規(guī)律的研究。
為解決動(dòng)物行為智能分析中面臨的共性難題,郭松濤教授團(tuán)隊(duì)利用人工智能技術(shù),設(shè)計(jì)了可自動(dòng)精準(zhǔn)識(shí)別與量化動(dòng)物行為的AI框架?!澳壳?,該框架已在川金絲猴、老虎、羚牛、斑馬等10種代表性野生動(dòng)物的自動(dòng)行為識(shí)別和量化上得到精準(zhǔn)驗(yàn)證。該技術(shù)可廣泛應(yīng)用于圈養(yǎng)動(dòng)物日常活動(dòng)規(guī)律監(jiān)測(cè)和關(guān)鍵行為異常預(yù)警、野生動(dòng)物行為數(shù)據(jù)分析研究,以及實(shí)驗(yàn)動(dòng)物健康狀態(tài)和福利研究等領(lǐng)域?!惫蓾f。(群眾新聞?dòng)浾?郭詩(shī)夢(mèng))
原文鏈接:http://sn.xinhuanet.com/20250520/0dd660b192f84533a4e1c0f9c1138ed9/c.html