ErgoLAB人機環(huán)境同步云平臺,是集科學(xué)化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,可以與人、機器、環(huán)境數(shù)據(jù)進行同步采集與綜合人機工效分析;尤其是人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機-環(huán)境系統(tǒng)從人-信息系統(tǒng),人-物理系統(tǒng)以及系統(tǒng)整體分別進行人機交互評估以及人因與工效學(xué)的智能評價。
智能化人機環(huán)境測試云平臺支持科研項目的整個工作流程,從基于云端的項目管理、實驗設(shè)計、數(shù)據(jù)同步采集、信號處理與數(shù)據(jù)分析到綜合統(tǒng)計與輸出可視化報告,對于特殊領(lǐng)域客戶可定制云端的人因大數(shù)據(jù)采集與AI狀態(tài)識別。具備ErgoVR虛擬現(xiàn)實實時同步人因工程研究解決方案、ErgoAI智能駕駛模擬實時同步人因工程研究解決方案、ErgoSIM環(huán)境模擬實時同步人因工程研究解決方案,可以在不同的實驗環(huán)境為人-機-環(huán)境研究的發(fā)展提供進一步的主客觀數(shù)據(jù)支撐與科學(xué)指導(dǎo)。
其中,云實驗設(shè)計模塊具備多時間軸、隨機化呈現(xiàn)等功能、可以創(chuàng)建復(fù)雜的實驗刺激,支持任何類型的刺激材料,包括自定義問卷、量表與實驗范式(系統(tǒng)包含常用量表與實驗范式以及數(shù)據(jù)常模,如NASA-TLX認知負荷量表、PANAS情緒效價量表、Stroop任務(wù)、MOT多目標(biāo)追蹤、注意力訓(xùn)練任務(wù)等)、聲光電刺激與實時API行為編碼/TTL事件標(biāo)記、多媒體刺激編輯如文本、聲音、圖像,視頻(含360度圖片和視頻),在線和手機應(yīng)用程序,以及所有的原型設(shè)計材料,也支持與如下刺激實時同步采集:如場景攝像機、軟件,游戲,VR,AR程序等。兼容第三方軟件刺激編譯軟件,如E-prime,Superlab,TobiiPro Lab等。
ErgoLAB人機環(huán)境同步云平臺采用主客觀結(jié)合多維度數(shù)據(jù)驗證的方法,數(shù)據(jù)同步種類包含大腦認知數(shù)據(jù)(EEG腦機交互與腦電測量系統(tǒng)、fNIRS高密度近紅外腦功能成像系統(tǒng)),視覺數(shù)據(jù)(Eyetracking視線交互與眼動追蹤系統(tǒng)),生理信號數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學(xué)數(shù)據(jù)(拉力、握力、捏力、壓力…),人機交互數(shù)據(jù)(包含如網(wǎng)頁終端界面交互行為數(shù)據(jù)以及對應(yīng)的鍵盤操作,鼠標(biāo)點擊、懸浮、劃入劃出等;移動終端界面交互行為數(shù)據(jù)以及對應(yīng)的手指行為如點擊、縮放、滑動等;VR終端界面人機交互行為數(shù)據(jù)及對應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)采集)、以及環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù)。
ErgoLAB人機環(huán)境同步云平臺包含強大的數(shù)據(jù)分析模塊以及廣泛的認知和情感生物特征識別(如記憶,注意力,情緒反應(yīng),行為決策,以及警覺、壓力等)。ErgoLAB數(shù)據(jù)分析與綜合統(tǒng)計分析模塊包含多維度人-機-環(huán)境數(shù)據(jù)綜合分析、EEG腦電分析與可視化、眼動分析與可視化、行為觀察分析、面部表情分析、動作姿態(tài)傷害評估與工效學(xué)分析、交互行為分析、時空行為分析、車輛與駕駛行為分析(ErgoAI駕駛版本)、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析(如SKT皮溫分析、EOG眼電分析以及其他環(huán)境與生物力學(xué)信號分析)。系統(tǒng)具備專門的信號處理模塊以及開放式信號處理接口,可以直接導(dǎo)出可視化分析報告以及原始數(shù)據(jù),支持第三方處理與開發(fā)。
津發(fā)科技提供定制開發(fā)服務(wù),與人因工程與工效學(xué)分析評價領(lǐng)域相關(guān)的算法模型、軟硬件產(chǎn)品與技術(shù)可深入研發(fā),詳情咨詢津發(fā)科技!
ErgoLAB是一種人類行為研究軟件工具,可 無縫同步35種以上傳感器模式的研究設(shè)計和數(shù)據(jù)收集。它支持項目的整個工作流程,從實驗方法設(shè)置到數(shù)據(jù)收集和導(dǎo)出以進行完整的分析。
毫秒級同步,您將能夠從各種傳感器模式(GSR,ECG,EEG,EMG,EEG,眼睛跟蹤...)以及多種刺激(照片,視頻,自由任務(wù), VR體驗,
...)具有出色的時間表現(xiàn)。因此,您將能夠輕松,準(zhǔn)確地分析來自Excel,SPSS,MatLab等的數(shù)據(jù)。
系統(tǒng)可提供研究設(shè)計模板,強大的數(shù)據(jù)分析平臺以及廣泛的認知和情感生物特征識別(例如記憶,注意力,情感價,激活和影響,參與度等) )。是為那些希望在生理數(shù)據(jù)解碼和分析方面向前邁進的人而特別設(shè)計的,它提供了一種實用且可行的解決方案。
同步數(shù)據(jù)采集
刺激性 任何類型的刺激 第三方軟件刺激 | 實時應(yīng)用 兼容LabStreamLayer 實時API |
數(shù)據(jù)分析 原始數(shù)據(jù)到第三方 Matlab(EEGLAB,BCILAB等) Python(MNE等) Neuroguide WE 其他 |
高級分析工具(可選( 軟件分析工具 情緒和認知指標(biāo) Excel導(dǎo)出(單個和匯總) 多媒體資料 |
技術(shù)指標(biāo)
人類行為指標(biāo) | |
---|---|
情緒生物識別 | 價,情緒激活,情緒影響 |
認知生物識別 | 注意,記憶,參與。 |
行為指標(biāo) | 鼠標(biāo)跟蹤,時間。 |
眼動追蹤指標(biāo) | 視覺注意,注視 |
內(nèi)隱動機和行為 | 隱式聯(lián)想響應(yīng)測試(IAT和啟動) |
IPS指標(biāo) | 位置追蹤 |
指標(biāo)表示 | |
---|---|
個人 | 對于生物識別,時間和隱式關(guān)聯(lián):條形圖和統(tǒng)計差異表。對于眼睛跟蹤,鼠標(biāo)定位:熱圖,比率圖,時間圖,軌跡圖,感興趣的區(qū)域(*固定時間,花費的時間,比率,重新訪問,平均固定時間,以前的固定時間)和匯總的固定視頻。 |
組合式 | 情感定位圖,結(jié)合指標(biāo)的視頻,刺激,攝像頭和麥克風(fēng)(匯總,按細分或個人匯總)。 |
輸出格式 | |
---|---|
檔案 | 所有CSV格式的生物特征識別(單獨和匯總),與第三方工具(Matlab,Excell等)兼容 |
可視化軟件 | 生物識別可視化軟件。分析間隔和感興趣的區(qū)域。 |
多媒體資料 | 包含陳述和視頻以進行報告。 ErgoLAB人機環(huán)境同步云平臺,是集科學(xué)化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,可以與人、機器、環(huán)境數(shù)據(jù)進行同步采集與綜合人機工效分析;尤其是人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機-環(huán)境系統(tǒng)從人-信息系統(tǒng),人-物理系統(tǒng)以及系統(tǒng)整體分別進行人機交互評估以及人因與工效學(xué)的智能評價。 智能化人機環(huán)境測試云平臺支持科研項目的整個工作流程,從基于云端的項目管理、實驗設(shè)計、數(shù)據(jù)同步采集、信號處理與數(shù)據(jù)分析到綜合統(tǒng)計與輸出可視化報告,對于特殊領(lǐng)域客戶可定制云端的人因大數(shù)據(jù)采集與AI狀態(tài)識別。具備ErgoVR虛擬現(xiàn)實實時同步人因工程研究解決方案、ErgoAI智能駕駛模擬實時同步人因工程研究解決方案、ErgoSIM環(huán)境模擬實時同步人因工程研究解決方案,可以在不同的實驗環(huán)境為人-機-環(huán)境研究的發(fā)展提供進一步的主客觀數(shù)據(jù)支撐 與科學(xué)指導(dǎo)。 其中,云實驗設(shè)計模塊具備多時間軸、隨機化呈現(xiàn)等功能、可以創(chuàng)建復(fù)雜的實驗刺激,支持任何類型的刺激材料,包括自定義問卷、量表與實驗范式(系統(tǒng)包含常用量表與實驗范式以及數(shù)據(jù)常模,如NASA-TLX認知負荷量表、PANAS情緒效價量表、Stroop任務(wù)、MOT多目標(biāo)追蹤、注意力訓(xùn)練任務(wù)等)、聲光電刺激與實時API行為編碼/TTL事件標(biāo)記、多媒體刺激編輯如文本、聲音、圖像,視頻(含360度圖片和視頻),在線和手機應(yīng)用程序,以及所有的原型設(shè)計材料,也支持與如下刺激實時同步采集:如場景攝像機、軟件,游戲,VR,AR程序等。兼容第三方軟件刺激編譯軟件,如E-prime,Superlab,TobiiPro Lab等。 ErgoLAB人機環(huán)境同步云平臺采用主客觀結(jié)合多維度數(shù)據(jù)驗證的方法,數(shù)據(jù)同步種類包含大腦認知數(shù)據(jù)(EEG腦機交互與腦電測量系統(tǒng)、fNIRS高密度近紅外腦功能成像系統(tǒng)),視覺數(shù)據(jù)(Eyetracking視線交互與眼動追蹤系統(tǒng)),生理信號數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學(xué)數(shù)據(jù)(拉力、握力、捏力、壓力…),人機交互數(shù)據(jù)(包含如網(wǎng)頁終端界面交互行為數(shù)據(jù)以及對應(yīng)的鍵盤操作,鼠標(biāo)點擊、懸浮、劃入劃出等;移動終端界面交互行為數(shù)據(jù)以及對應(yīng)的手指行為如點擊、縮放、滑動等;VR終端界面人機交互行為數(shù)據(jù)及對應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)采集)、以及環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù)。 ErgoLAB人機環(huán)境同步云平臺包含強大的數(shù)據(jù)分析模塊以及廣泛的認知和情感生物特征識別(如記憶,注意力,情緒反應(yīng),行為決策,以及警覺、壓力等)。ErgoLAB數(shù)據(jù)分析與綜合統(tǒng)計分析模塊包含多維度人-機-環(huán)境數(shù)據(jù)綜合分析、EEG腦電分析與可視化、眼動分析與可視化、行為觀察分析、面部表情分析、動作姿態(tài)傷害評估與工效學(xué)分析、交互行為分析、時空行為分析、車輛與駕駛行為分析(ErgoAI駕駛版本)、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析(如SKT皮溫分析、EOG眼電分析以及其他環(huán)境與生物力學(xué)信號分析)。系統(tǒng)具備專門的信號處理模塊以及開放式信號處理接口,可以直接導(dǎo)出可視化分析報告以及原始數(shù)據(jù),支持第三方處理與開發(fā)。 津發(fā)科技提供定制開發(fā)服務(wù),與人因工程與工效學(xué)分析評價領(lǐng)域相關(guān)的算法模型、軟硬件產(chǎn)品與技術(shù)可深入研發(fā),詳情咨詢津發(fā)科技! ErgoLAB是一種人類行為研究軟件工具,可 無縫同步35種以上傳感器模式的研究設(shè)計和數(shù)據(jù)收集。它支持項目的整個工作流程,從實驗方法設(shè)置到數(shù)據(jù)收集和導(dǎo)出以進行完整的分析。 毫秒級同步,您將能夠從各種傳感器模式(GSR,ECG,EEG,EMG,EEG,眼睛跟蹤...)以及多種刺激(照片,視頻,自由任務(wù), VR體驗,...)具有出色的時間表現(xiàn)。因此,您將能夠輕松,準(zhǔn)確地分析來自Excel,SPSS,MatLab等的數(shù)據(jù)。 系統(tǒng)可提供的研究設(shè)計模板,強大的數(shù)據(jù)分析平臺以及廣泛的認知和情感生物特征識別(例如記憶,注意力,情感價,激活和影響,參與度等) )。是為那些希望在生理數(shù)據(jù)解碼和分析方面向前邁進的人而特別設(shè)計的,它提供了一種實用且可行的解決方案。 同步數(shù)據(jù)采集
刺激性 任何類型的刺激 第三方軟件刺激 實時應(yīng)用 兼容LabStreamLayer 實時API 數(shù)據(jù)分析 原始數(shù)據(jù)到第三方 Matlab(EEGLAB,BCILAB等) Python(MNE等) Neuroguide WE 其他
高級分析工具(可選( 軟件分析工具 情緒和認知指標(biāo) Excel導(dǎo)出(單個和匯總) 多媒體資料
技術(shù)指標(biāo) 人類行為指標(biāo) 情緒生物識別 價,情緒激活,情緒影響 認知生物識別 注意,記憶,參與。 行為指標(biāo) 鼠標(biāo)跟蹤,時間。 眼動追蹤指標(biāo) 視覺注意,注視 內(nèi)隱動機和行為 隱式聯(lián)想響應(yīng)測試(IAT和啟動) IPS指標(biāo) 位置追蹤
指標(biāo)表示 個人 對于生物識別,時間和隱式關(guān)聯(lián):條形圖和統(tǒng)計差異表。對于眼睛跟蹤,鼠標(biāo)定位和室位:熱圖,比率圖,時間圖,軌跡圖,感興趣的區(qū)域(*固定時間,花費的時間,比率,重新訪問,平均固定時間,以前的固定時間)和匯總的固定視頻。 組合式 情感定位圖,結(jié)合指標(biāo)的視頻,刺激,攝像頭和麥克風(fēng)(匯總,按細分或個人匯總)。
輸出格式 檔案 所有CSV格式的生物特征識別(單獨和匯總),與第三方工具(Matlab,Excell等)兼容 可視化軟件 生物識別可視化軟件。分析間隔和感興趣的區(qū)域。 多媒體資料 包含陳述和視頻以進行報告。 |