1、美国休斯顿贝勒医学院和纽约城市学院的一项研究表明,视觉信息可以帮助人们更多地识别听到的语言单词,特别是在某些噪音水平下,这样的提升最高能的繁體中文翻譯

1、美国休斯顿贝勒医学院和纽约城市学院的一项研究表明,视觉信息可以帮助


1、美国休斯顿贝勒医学院和纽约城市学院的一项研究表明,视觉信息可以帮助人们更多地识别听到的语言单词,特别是在某些噪音水平下,这样的提升最高能到 6倍。人脑可以借助于视 唇语
觉,从说话人的面部以及嘴唇的移动获得一定的视觉信息。而这样的视觉信息可以帮助我们更好地识别说话的内容,在不同的噪音水平下,面部以及嘴唇的移动信息能帮助我们提高 10%~60%左右的识别率。但是当周围的环境噪音非常强或者当语音信号非常微弱的时候,唇语识别就显得相当困难了。
2、需要一定的声音信号才能使唇语阅读最为有效。而这是第一次在自然场景中进行实验,让被试者听到或者看到不同的声音或者视频(包含语音),然后给出他们认为可能的回答。而在以往类似的实验中,实验者的回答只是在一个有限的列表中进行选择。
3、研究团队构建了一个数学模型来预测人是如何混合视觉和听觉信息的。在实验过程中一些单词的视频(包含声音)在噪音环境里播放给实验者,可以看到视觉信息通过与声音信息的混合,可以显著地帮助实验者提高他们对单词的识别率。
4、令人意外的是即使这个视频不是真的对应某些单词,而是像卡通人物那样随着声音的强弱而变化口型,这样的视频信息仍然能提高单词的识别率,虽然这样的识别率的提高相对真实的视频要低。而在另外一项实验中,视频播放的是一个单词,同时播放的声音却是另外一个单词,而当大脑混合了这两种信息后,得到的却是第三个完全不一样的单词。
0/5000
原始語言: -
目標語言: -
結果 (繁體中文) 1: [復制]
復制成功!
1、美國休斯頓貝勒醫學院和紐約城市學院的一項研究表明,視覺資訊可以説明人們更多地識別聽到的語言單詞,特別是在某些噪音水準下,這樣的提升最高能到 6倍。 人腦可以借助于視 唇語覺,從說話人的面部以及嘴唇的移動獲得一定的視覺資訊。 而這樣的視覺資訊可以説明我們更好地識別說話的內容,在不同的噪音水準下,面部以及嘴唇的移動資訊能説明我們提高 10%~60%左右的識別率。 但是當周圍的環境噪音非常強或者當語音信號非常微弱的時候,唇語識別就顯得相當困難了。2、需要一定的聲音信號才能使唇語閱讀最為有效。 而這是第一次在自然場景中進行實驗,讓被試者聽到或者看到不同的聲音或者視頻(包含語音),然後給出他們認為可能的回答。 而在以往類似的實驗中,實驗者的回答只是在一個有限的清單中進行選擇。3、研究團隊構建了一個數學模型來預測人是如何混合視覺和聽覺資訊的。 在實驗過程中一些單詞的視頻(包含聲音)在噪音環境裡播放給實驗者,可以看到視覺資訊通過與聲音資訊的混合,可以顯著地説明實驗者提高他們對單詞的識別率。4、令人意外的是即使这个视频不是真的对应某些单词,而是像卡通人物那样随着声音的强弱而变化口型,这样的视频信息仍然能提高单词的识别率,虽然这样的识别率的提高相对真实的视频要低。而在另外一项实验中,视频播放的是一个单词,同时播放的声音却是另外一个单词,而当大脑混合了这两种信息后,得到的却是第三个完全不一样的单词。
正在翻譯中..
結果 (繁體中文) 2:[復制]
復制成功!

1、美國休斯頓貝勒醫學院和紐約城市學院的一項研究表明,視覺信息可以幫助人們更多地識別聽到的語言單詞,特別是在某些噪音水平下,這樣的提升最高能到6倍。人腦可以藉助於視唇語
覺,從說話人的面部以及嘴唇的移動獲得一定的視覺信息。而這樣的視覺信息可以幫助我們更好地識別說話的內容,在不同的噪音水平下,面部以及嘴唇的移動信息能幫助我們提高10%~60%左右的識別率。但是當周圍的環境噪音非常強或者當語音信號非常微弱的時候,唇語識別就顯得相當困難了。
2、需要一定的聲音信號才能使唇語閱讀最為有效。而這是第一次在自然場景中進行實驗,讓被試者聽到或者看到不同的聲音或者視頻(包含語音),然後給出他們認為可能的回答。而在以往類似的實驗中,實驗者的回答只是在一個有限的列表中進行選擇。
3、研究團隊構建了一個數學模型來預測人是如何混合視覺和聽覺信息的。在實驗過程中一些單詞的視頻(包含聲音)在噪音環境裡播放給實驗者,可以看到視覺信息通過與聲音信息的混合,可以顯著地幫助實驗者提高他們對單詞的識別率。
4、令人意外的是即使這個視頻不是真的對應某些單詞,而是像卡通人物那樣隨著聲音的強弱而變化口型,這樣的視頻信息仍然能提高單詞的識別率,雖然這樣的識別率的提高相對真實的視頻要低。而在另外一項實驗中,視頻播放的是一個單詞,同時播放的聲音卻是另外一個單詞,而當大腦混合了這兩種信息後,得到的卻是第三個完全不一樣的單詞。
正在翻譯中..
結果 (繁體中文) 3:[復制]
復制成功!

1、美國休斯頓貝勒醫學院和紐約都市學院的一項研究表明,視覺資訊可以幫助人們更多地識別聽到的語言單詞,特別是在某些譟音水准下,這樣的提升最高能到6倍。人腦可以借助於視唇語
覺,從說話人的面部以及嘴唇的移動獲得一定的視覺資訊。而這樣的視覺資訊可以幫助我們更好地識別說話的內容,在不同的譟音水准下,面部以及嘴唇的移動資訊能幫助我們提高10%~60%左右的識別率。但是當周圍的環境譟音非常强或者當語音訊號非常微弱的時候,唇語識別就顯得相當困難了。
2、需要一定的聲音訊號才能使唇語閱讀最為有效。而這是第一次在自然場景中進行實驗,讓被試者聽到或者看到不同的聲音或者視頻(包含語音),然後給出他們認為可能的回答。而在以往類似的實驗中,實驗者的回答只是在一個有限的清單中進行選擇。
3、研究團隊構建了一個數學模型來預測人是如何混合視覺和聽覺資訊的。在實驗過程中一些單詞的視頻(包含聲音)在譟音環境裏播放給實驗者,可以看到視覺資訊通過與聲音資訊的混合,可以顯著地幫助實驗者提高他們對單詞的識別率。
4、令人意外的是即使這個視頻不是真的對應某些單詞,而是像卡通人物那樣隨著聲音的强弱而變化口型,這樣的視頻資訊仍然能提高單詞的識別率,雖然這樣的識別率的提高相對真實的視頻要低。而在另外一項實驗中,視頻播放的是一個單詞,同時播放的聲音卻是另外一個單詞,而當大腦混合了這兩種資訊後,得到的卻是第三個完全不一樣的單詞。
正在翻譯中..
 
其它語言
本翻譯工具支援: 世界語, 中文, 丹麥文, 亞塞拜然文, 亞美尼亞文, 伊博文, 俄文, 保加利亞文, 信德文, 偵測語言, 優魯巴文, 克林貢語, 克羅埃西亞文, 冰島文, 加泰羅尼亞文, 加里西亞文, 匈牙利文, 南非柯薩文, 南非祖魯文, 卡納達文, 印尼巽他文, 印尼文, 印度古哈拉地文, 印度文, 吉爾吉斯文, 哈薩克文, 喬治亞文, 土庫曼文, 土耳其文, 塔吉克文, 塞爾維亞文, 夏威夷文, 奇切瓦文, 威爾斯文, 孟加拉文, 宿霧文, 寮文, 尼泊爾文, 巴斯克文, 布爾文, 希伯來文, 希臘文, 帕施圖文, 庫德文, 弗利然文, 德文, 意第緒文, 愛沙尼亞文, 愛爾蘭文, 拉丁文, 拉脫維亞文, 挪威文, 捷克文, 斯洛伐克文, 斯洛維尼亞文, 斯瓦希里文, 旁遮普文, 日文, 歐利亞文 (奧里雅文), 毛利文, 法文, 波士尼亞文, 波斯文, 波蘭文, 泰文, 泰盧固文, 泰米爾文, 海地克里奧文, 烏克蘭文, 烏爾都文, 烏茲別克文, 爪哇文, 瑞典文, 瑟索托文, 白俄羅斯文, 盧安達文, 盧森堡文, 科西嘉文, 立陶宛文, 索馬里文, 紹納文, 維吾爾文, 緬甸文, 繁體中文, 羅馬尼亞文, 義大利文, 芬蘭文, 苗文, 英文, 荷蘭文, 菲律賓文, 葡萄牙文, 蒙古文, 薩摩亞文, 蘇格蘭的蓋爾文, 西班牙文, 豪沙文, 越南文, 錫蘭文, 阿姆哈拉文, 阿拉伯文, 阿爾巴尼亞文, 韃靼文, 韓文, 馬來文, 馬其頓文, 馬拉加斯文, 馬拉地文, 馬拉雅拉姆文, 馬耳他文, 高棉文, 等語言的翻譯.

Copyright ©2024 I Love Translation. All reserved.

E-mail: