基于视觉情境范式的口语词汇理解研究进展

林 桐 王娟   2018-09-14 10:02:54

(江苏师范大学教育科学学院,徐州 221116)

摘 要 视觉情境范式是主要用于研究口语理解的眼动范式,它将视觉情境与听觉刺激跨通道结合,使实验环境更为自然。研究发现,在口语词汇理解中,词汇的音、义、形信息能得到激活;儿童对语音的激活水平已接近成人,对语义的激活水平仍与成人存在差距;双语者能否激活跨语言竞争词仍存在争议;视觉材料、听觉环境和预示时长会影响该范式下的口语词汇理解过程。未来应加大对汉语被试和特殊被试的研究,并丰富该范式的视觉情境与听觉环境。

关键词 视觉情境范式;口语理解;词汇识别

分类号 B842.5

DOI: 10.16842/j.cnki.issn2095-5588.2018.09.007

视觉情境范式(visual world paradigm)是用于研究口语理解的一种眼动范式,由Cooper (1974)最早提出,在其研究中,要求被试在加工听觉短故事的同时注视一些物体,其中部分物体会被短故事提及。结果发现,被试的部分眼动指标与听觉内容在时间上紧密相联。单词出现后,被试会在200ms内将超过90%的注视投向单词所指物体。Tanenhaus等进一步发展了该范式,将其用于研究口语理解中的视觉情境与语言信息的整合过程(Tanenhaus, Spivey-Knowlton, Eberhard, & Sedivy, 1995)。目前,视觉情境范式被广泛用于口语理解的研究,包括词汇理解和句法理解。该范式为口语理解的研究提供了视听结合的途径,具有重要价值。听觉词汇识别是听觉言语交流的前提和基础,只有正确通达了词汇语义,才能进一步完成听觉句子和篇章的理解(邹丽娟, 2015)。因此,本文主要围绕该范式在口语词汇理解领域的研究展开讨论。

1 视觉情境范式的研究机制

对该范式的每个试次,被试在注视视觉情境的同时,需要加工一段听觉语句,相应的,他们的眼动数据被记录。这一范式假设,眼动能很好地反映语言理解状态,被试对所呈现物体的眼睛注视和听觉刺激中目标词的激活状态在注视时间上相对应。若某一词语被激活,则被试对所呈现的、与该词语相对应的物体的注视要多于对其他物体的注视(邱丽景, 王穗苹, 关心, 2009)。

在口语句法理解领域,该范式多使用半现实场景的图片作为视觉材料,采用描述该场景的语句作为听觉材料(Altmann & Kamidez, 1999)。也有类似研究以真实物体作为视觉材料,这些物体被放置于格子状的工作架上,通过听觉语句要求被试对物体进行操作(Thothathiri & Snedeker, 2008)。对于口语词汇理解,一些研究则以显示器呈现的四幅图片(通常包含听觉目标词、竞争词和无关词三类备选图片)作为视觉情境,通过耳机播放听觉刺激,要求被试注视图片或对图片进行选择(Huettig & Altmann, 2011; Wang, Wang, & Malins, 2017)。近些年,使用文字作为视觉材料的研究也逐渐增多(Shen, Qu, & Li, 2016; Shen, Qu, & Tong, 2018),其优点在于文字版本的视觉刺激可以是任何词(如抽象名词),而不仅限于指代具体形象的名词。少量研究在视觉情境中未呈现听觉目标词,进而增强竞争词的竞争效应(Huettig & Altmann, 2005)。

2 视觉情境范式在不同被试口语词汇理解中的应用

以往,研究者通过视觉情境范式对口语词汇理解的研究,大多聚焦于正常成人加工口语词汇时,能否激活其中的语音信息、语义信息和视觉信息。近些年,双语者和儿童的口语词汇理解持续受到关注。

2.1 视觉情境范式在正常成人口语词汇理解中的应用

早期视觉情境范式的研究,大多以正常成人为被试,探讨口语词汇理解过程中音、义、形信息的激活情况。研究显示,人们在通达听觉词汇时,能激活其中的语音信息,包括词首和词尾的语音信息,且词首语音信息获得激活的时间更早、程度更强(Allopenna, Magnuson, & Tanenhaus, 1998; McQueen & Viebahn, 2007)。此外,语义信息也会被激活。例如,被试在加工听觉目标词(如“钢琴”)时,其表征被快速激活。与此同时,与目标词语义相关的表征(如“小号”)也得到了激活(Huettig & Altmann, 2005)。类似研究还发现,被试能在识别听觉词汇时,激活该词所指代的具体形象的形状(Dahan & Tanenhaus, 2004; Rommers, Meyer, Praamstra, & Huettig, 2013)与颜色(Huettig & Altmann, 2011)。

综上可知,人们在理解口语词汇时能自动激活相关的语音、语义和视觉信息,但仍存在尚未解决的问题。例如,这些信息是被平行地激活,还是存在先后顺序?另一方面,视觉情境是否会对口语词汇造成预激活?若是,影响程度有多大?

2.2 视觉情境范式在双语者口语词汇理解中的应用

双语者口语词汇理解研究领域的重点在于,单一语言目标词呈现时,其跨语言语音竞争词是否同时获得了激活。研究者通过在视觉情境中直接呈现跨语言语音竞争词,或呈现跨语言竞争词的翻译对等词来考察被试的语言激活情况。例如,通过呈现“mustache”(对应西班牙文为“bigote”)来考察被试在加工英语听觉词“beans”时,能否激活西班牙语词“bigote”(Canseco-Gonzalez,Brehm, Brick, Brown-Schmidt, Fisher, & Wagner,2010)。对俄-英双语被试(Spivey & Marian, 1999)、英语-西班牙语被试(Canseco-Gonzalez, Brehm, Brick, Brown-Schmidt, Fisher, & Wagner,2010)以及荷兰语-英语被试(Lagrou, Hartsuiker, & Duyck, 2013)的研究发现,双语者无法在单一语言环境下抑制另一种语言的激活。此外,双语者对跨语言竞争词的激活能力并不局限于非声调语言和发声语言。汉-英双语者能同时激活相应汉语词汇的音段信息和声调信息(Wang,Wang, & Malins,2017);英语-手语双语者能激活与听觉目标词手语相似的词(Giezen, Blumenfeld, Shook, Marian, & Emmorey, 2015)。

然而,有少量研究者持相反观点。他们发现,听荷兰语语句时,荷兰语-英语双语者无法激活与荷兰语目标词语音相似的英语单词(Weber & Cutler, 2004);类似地,日-英双语者在加工高预测性英语口语语句时(即被试能根据句子信息在目标词出现前成功预测),也无法根据句子信息激活目标词的语音细节和对应日语词汇的语音(Ito, Pickering, & Corley, 2018)。

上述研究关于双语者能否激活跨语言竞争词的结论存在差异,这可能与被试选取和实验安排有关。不同实验采用的被试对非母语语言的熟悉程度可能存在差异。另外,实验的语言环境也可能影响语言激活。Ito等人(2018)在实验中给被试呈现英语语句,实验前对图片名字的学习也是通过英语来完成。这样的环境下,被试可能难以激活母语。但也有研究发现,相比于先接受英语语境,英-法双语者先接受法语语境再进行英语的视觉情境范式任务时,被试对法语竞争词的激活程度更小(Mercier, Pivneva, & Titone, 2016)。再者,语言习得年龄、目标词与竞争词语音相似的程度以及不同语言间的差异也会影响实验结果。因此,推广该领域的研究结果时要保持谨慎。

2.3 视觉情境范式对儿童口语词汇理解的研究

以往的实验大多针对正常成人展开,近几年一些研究者开始关注儿童的口语词汇理解。一些研究证明,儿童对听觉词汇语音信息的激活能力已接近成人。24个月、30个月的幼儿能迅速激活听觉目标词的语音,且快于对语义的激活(Chow, Davies, & Plunkett, 2017);在汉语中,4岁幼儿可以激活目标词的音段信息和超音段信息,包括声母、韵母和声调(李爽, 2016; 王丹丹, 2016)。但对于听觉词汇语义的理解,儿童还与成人存在一定差距,主要表现在部分深层次的语义上。例如,6岁儿童在通达听觉词汇“锯子”时,能够理解“斧子”和“木头”与之语义相关,而无法意识到“小刀”也与“锯子”存在语义的关联(Pluciennicka, Coello, & Kalénine, 2016)。

该范式对儿童被试的研究初步揭示了儿童的口语词汇加工过程。在语音方面,儿童能运用音段与超音段信息来识别听觉词汇,与成人无显著差异;在语义方面,儿童能理解听觉目标词的基本语义,而对某些深层词义和抽象意义的理解,仍与成人存在差距。学前儿童获得词义的过程比获得语音、语法的过程缓慢(赵寄石, 楼必生, 2003),并且他们思维能力的发展还不够完善,其对不同类型词义的口语理解还需继续探讨。

3 视觉情境范式的实验材料对口语词汇理解的影响

3.1 视觉材料呈现类型的影响

研究表明,视觉情境范式中视觉材料的呈现类型不同,则其结果也将存在差异。呈现文字时,被试对语音竞争词的注视较多;而呈现图片时,被试对语义竞争词和形状竞争词的注视较多(Huettig & McQueen, 2007)。此外,文字材料还适于考察语音细节(Reinisch, Jesse, & McQueen, 2010)和字形(Salverda & Tanenhaus, 2010)的激活情况。这些研究初步揭示了呈现两种材料的差异:图片版本对语义、视觉信息更敏感,而文字版本更适合研究语音与字形。

然而,上述结论基于对西方拼音文字的研究。Shen,Qu和Li (2016)对汉语被试的研究发现,文字材料能同时引起语义和语音的激活,且对语义的激活程度强于语音。另外,该研究没有发现字形被激活的证据。与Shen等人(2016)发现的微弱语音竞争效应不同,有研究表明汉语语音竞争效应在文字版本的视觉情境范式中是稳固的(Shen, Qu, & Tong, 2018),且文字材料对汉语的语音细节极为敏感(Shen, Deutsch, & Rayner, 2013)。

综上所述,呈现图片或文字在西方拼音文字和汉语中造成的研究差异是不同的。拼音文字中,文字与语音的联系较强;而汉语中,文字与语音及语义都存在关联。因此,文字材料能够考察汉语语义的激活情况。值得一提的是,在拼音文字中,单词的语音与字形无法完全分离,只能借助字形的相似程度来探讨其激活情况。例如,Salverda和Tanenhaus (2010)通过操控两个竞争词 (如“bear”和“bare”)的语音与目标词(如“bean”)相似程度一致,而字形相似程度不同,从而展开研究。汉语中存在大量同音字和多音字,能够做到形和音完全分离。故而,可以采用汉字对口语词汇理解中的字形激活情况进行后续研究。

3.2 听觉环境的影响

现实生活中,人们面临着各式各样的听觉环境,而不仅是实验条件下的安静环境。一些研究显示,听觉环境的改变会影响被试的口语词汇理解。当听觉语句的部分音素被替换为噪音时,被试对首音相似词的注视减少了,而对尾音相似词的注视更早、更多了,但对前者的注视时长仍多于后者(McQueen & Huettig, 2012)。这与植入人工耳蜗的语前聋被试的口语词汇识别模式类似(McMurray, Farris-Trimble, & Rigler, 2017)。该模式可能是一种加工策略,当我们无法确定听觉词汇时,倾向于降低识别速度从而做出正确选择。因此,尾音信息此时显得更为重要。此外,实际生活中有时存在不止一种声音来源。当目标声源和无关声源并存时,被试无法完全忽略无关听觉内容,而会同时加工目标内容与无关内容(Brouwer & Bradlow, 2016)。

上述研究探讨了人们在噪音环境和双声源环境下的听觉词汇识别模式,有利于揭示更接近于现实情境的口语理解过程。

3.3 预示时长的影响

在不少研究中,视觉情境范式的视觉情境与听觉刺激中的目标词同时呈现;或者,视觉情境在听觉目标词之前呈现,这让被试有短暂的时间来熟悉图片或文字。视觉材料的预示时长会影响被试的口语加工进程。基于拼音文字的研究显示,当视觉情境与目标词同时呈现时,听觉目标词的语音信息获得了激活,并且比语义、形状信息被激活得更早;但当预示时长为200ms时,语音信息不再被激活(Huettig & McQueen, 2007)。在汉语中,长预示条件下,被试对听觉目标词的语义和语音信息激活水平较高;而短预示条件下,被试只激活了目标词的语义信息(Shen,Qu, & Li, 2016)。

由此可见,视觉情境的预示时长会影响被试的听觉词汇理解,且在汉语与拼音文字中影响不同。目前对此展开的实验较少,尚无统一的结论。

4 视觉情境范式的优势与局限

4.1 优势

由于独特的实验设置,视觉情境范式成为研究口语理解的有效工具。首先,该范式将视觉刺激与听觉刺激相结合,使被试面对的实验环境生态程度较高。其次,该范式对被试的知识背景、理解能力、操作能力要求较低,因而适合一些特殊被试。再次,视觉情境范式运用眼动追踪技术,实时测量被试对口语的理解进程,为我们了解口语理解的时间进程和加工机制提供了依据。最后,语言、视觉信息、记忆和注意等认知加工过程通常被独立地研究,但一般来说,它们需要协同工作。视觉情境范式可以将这些认知加工过程整合起来考虑。

4.2 局限

虽然视觉情境范式被越来越多的研究者所青睐,但仍存在不足之处。该范式最明显的局限性在于实验的视觉情境是有限的。实验中,有限的备选图片会影响被试的词汇加工。被试听到相应口语时,激活的信息可能不止是视觉情境所呈现的。由于实验情境与现实情境的差异,我们不能确定实验中的理解过程与实际情况是否完全一致。

另外,由于视觉情境与听觉刺激的结合,实验结果可能不只是口语理解的结果,而同时还受到视觉情境的影响。有证据表明,预先呈现的视觉情境可能会使被试的口语识别速度偏快(Henderson & Ferreira, 2004; Huettig & McQueen, 2007)。

5 研究展望

5.1 加强对汉语口语词汇理解的研究

拼音文字音-形结合紧密的特点决定了其无法纯粹地分离语音和字形因素(邹丽娟, 2015),因此无法将其音和形完全分离开进行探究。而汉字是与意义匹配,而非与声音匹配,不存在一致的字形-语音的对应关系。但是,汉字的亚词汇单元却既可以表音,也可以表义(张积家, 王娟, 印丛, 2014),通过同音字和多音字做到音和形的完全分离。同时,不同读音的汉字之间也可能享有相同的部件。这些特点为研究汉字字形在口语词汇理解中的激活情况提供了道路。未来需加强对汉语口语词汇理解的研究。例如,Shen等人(2016)通过视觉情境范式并未发现字形被激活的证据。这与已有研究结果(陈栩茜, 李昀恒, 张积家, 2014; 邹丽娟, 2015)不一致,未来还需进一步验证。

5.2 加强对特殊被试口语词汇理解的研究

近几年,已有不少研究者关注到特殊被试的口语词汇理解,如儿童、听力障碍者和手语者。也有研究将视觉情境范式用于孤独症儿童和特定言语功能损伤儿童的句法理解(Andreu, Sanz-Torrent, & Rodríguez-Ferreiro, 2016; Brady, Anderson, Hahn, Obermeier, & Kapa, 2014)。未来应运用该范式更深层次地揭露特殊群体的口语词汇理解过程,并扩大研究对象,如阅读障碍儿童和言语功能脑区受损的病人等。

5.3 继续改进视觉情境范式的实验材料

邱丽景等人(2009)认为,若能参考场景知觉、视觉注意等相关领域研究的新进展,使视觉情境的设置更接近真实情境,该范式将获得更大的生命力,口语理解的研究将取得更大的突破。已有研究者对视觉情境的背景进行考察(Yu & Tsai, 2016),但目前绝大部分研究中的视觉情境仍停留在早期阶段,与现实情境存在较大差异。未来在该范式的视觉情境和听觉环境上应有所改进,进一步提高生态程度。例如,提高视觉背景和图片的复杂性,在听觉刺激中加入情绪信息等。最后,预示时长如何影响口语理解也需进一步探讨。

5.4 小结

视觉情境范式将视觉情境和相关的听觉刺激进行跨通道结合,让被试在相对自然的实验环境下进行反应。它有着操作简易、对被试要求较低和对时间敏感等诸多优点,近些年受到研究者的广泛认可和使用。同时,该范式有多个版本,可用于研究口语词汇理解、句法加工以及口语产生等心理过程。总而言之,视觉情境范式是研究口语行之有效的工具。今后需要继续关注特殊被试的口语理解过程,并对不同实验环境展开研究。

参考文献

陈栩茜, 李昀恒, 张积家 (2014). 汉语双字听觉词高频首字通达中的字形激活. 华南师范大学学报(社会科学版) ,(3) 74-83.

李爽 (2016). 音段和超音段信息对4岁幼儿汉语口语词汇识别的影响. 硕士学位论文. 辽宁师范大学.

邱丽景, 王穗苹, 关心 (2009). 口语理解的视觉—情境范式研究. 华南师范大学学报(社会科学版),(1), 130-136.

王丹丹 (2016). 4岁幼儿汉语口语识别中音段信息和超音段信息作用的眼动研究. 硕士学位论文. 辽宁师范大学.

赵寄石, 楼必生 (2003). 学前儿童语言教育. 北京: 人民教育出版社.

张积家, 王娟, 印丛 (2014). 声符和义符在形声字语音、语义提取中的作用——来自部件知觉眼动研究的证据. 心理学报, 46(7), 885-900.

邹丽娟 (2015). 听觉词汇识别中字形激活的认知及神经机制. 心理科学, 38(6), 1353-1358.

Allopenna, P. D., Magnuson, J. S., & Tanenhaus, M. K. (1998). Tracking the time course of spoken word recognition using eye movement: Evidence for continuous mapping models. Journal of Memory and Language, 38(4), 419-439.

Altmann, G. T., & Kamide, Y. (1999). Incremental interpretation at verbs: restricting the domain of subsequent reference. Cognition, 73(3), 247-264.

Andreu, L., Sanz-Torrent, M., & RodrGuez-Ferreiro, J. (2016). Do children with SLI use verbs to predict arguments and adjuncts: evidence from eye movements during listening. Frontiers in Psychology, 6(1917), 1917.

Brady, N. C., Anderson, C. J., Hahn, L. J., Obermeier, S. M., & Kapa, L. L. (2014). Eye tracking as a measure of receptive vocabulary in children with autism spectrum disorders. Augmentative and Alternative Communication, 30(2), 147-159.

Brouwer, S., & Bradlow, A. R. (2016). The temporal dynamics of spoken word recognition in adverse listening conditions. Journal of Psycholinguistic Research, 45(5), 1151-1160.

Canseco-Gonzalez, E., Brehm, L., Brick, C., Brown-Schmidt, S., Fisher, K., & Wagner, K. (2010). Carpet or Cárcel: The effect of age of acquisition and language mode on bilingual lexical access. Language and Cognitive Processes, 25(5), 669-705.

Chow, J., Davies, A. A., & Plunkett, K. (2017). Spoken-word recognition in 2-year-olds: the tug of war between phonological and semantic activation. Journal of Memory and Language, 93, 104-134.

Cooper, R. M. (1974). The control of eye fixation by the meaning of spoken language: a new methodology for the real-time investigation of speech perception, memory, and language processing. Cognitive Psychology, 6(1), 84-107.

Dahan, D., & Tanenhaus, M. K. (2004). Continuous mapping from sound to meaning in spoken-language comprehension: immediate effects of verb-based thematic constraints. Journal of Experimental Psychology: Learning, Memory, and Cognition, 30(2), 498-513.

Giezen, M. R., Blumenfeld, H. K., Shook, A., Marian, V., & Emmorey, K. (2015). Parallel language activation and inhibitory control in bimodal bilinguals. Cognition, 141, 9-25.

Henderson, J. M., & Ferreira, F. (2004). Scene perception for psycholinguists. In J. M. Henderson & F. Ferreira (Eds.), The Interface of Language, Vision, and Action (pp. 1-58). Hove: Psychology Press.

Huettig, F., & Altmann, G. T. M. (2005). Word meaning and the control of eye fixation: semantic competitor effects and the visual world paradigm. Cognition, 96(1), B23-B32.

Huettig, F., & Altmann, G. T. M. (2011). Looking at anything that is green when hearing ‘frog' -How object surface colour and stored object colour knowledge influence language-mediated overt attention, Quarterly Journal of Experimental Psychology, 64(1), 122-145.

Huettig, F., & McQueen, J. M. (2007). The tug of war between phonological, semantic, and shape information in language-mediated visual search. Journal of Memory and Language, 57(4), 460-482.

Ito, A., Pickering, M., & Corley, M. (2018). Investigating the time-course of phonological prediction in native and non-native speakers of English: A visual world eye-tracking study. Journal of Memory and Language, 98, 1-11.

Lagrou, E., Hartsuiker, R. J., & Duyck, W. (2013). Interlingual lexical competition in a spoken sentence context: evidence from the visual world paradigm. Psychonomic Bulletin and Review, 20(5), 963-972.

Mcmurray, B., Farris-Trimble, A., & Rigler, H. (2017). Waiting for lexical access: cochlear implants or severely degraded input lead listeners to process speech less incrementally. Cognition, 169, 147-164.

McQueen, J. M., & Huettig, F. (2012). Changing only the probability that spoken words will be distorted changes how they are recognized. Journal of the Acoustical Society of America, 131(1), 509-517.

McQueen, J. M., & Viebahn, M. C. (2007). Tracking recognition of spoken words by tracking looks to printed words. Quarterly Journal of Experimental Psychology, 60(5), 661-671.

Mercier, J., Pivneva, I., & Titone, D. (2016). The role of prior language context on bilingual spoken word processing: evidence from the visual world task. Bilingualism: Language and Cognition, 19(2), 376-399.

Pluciennicka, E., Coello, Y., & Kalénine, S. (2016). Development of implicit processing of thematic and functional similarity relations during manipulable artifact object identification: evidence from eye-tracking in the visual world paradigm. Cognitive Development, 38, 75-88.

Reinisch, E., Jesse, A., & Mcqueen, J. M. (2010). Early use of phonetic information in spoken word recognition: lexical stress drives eye movements immediately. Quarterly Journal of Experimental Psychology, 63(4), 772-783.

Rommers, J., Meyer, A. S., Praamstra, P., & Huettig, F. (2013). The contents of predictions in sentence comprehension: activation of the shape of objects before they are referred to. Neuropsychologia, 51(3), 437-447.

Salverda, A. P., & Tanenhaus, M. K. (2010). Tracking the time course of orthographic information in spoken-word recognition. Journal of Experimental Psychology Learning Memory and Cognition, 36(5), 1108-1117.

Shen, J., Deutsch, D., & Rayner, K. (2013). On-line perception of mandarin tones 2 and 3: evidence from eye movements. Journal of the Acoustical Society of America, 133(5), 3016-3029.

Shen, W., Qu, Q., & Li, X. (2016). Semantic information mediates visual attention during spoken word recognition in Chinese: evidence from the printed-word version of the visual-world paradigm. Attention Perception and Psychophysics, 78(5), 1-18.

Shen, W., Qu, Q., & Tong, X. (2018). Visual attention shift to printed words during spoken word recognition in Chinese: the role of phonological information. Memory & Cognition, 46(4), 642-654.

Spivey, M. J., & Marian, V. (1999). Cross talk between native and second languages: partial activation of an irrelevant lexicon. Psychological Science, 10(3), 281-284.

Tanenhaus, M. K., Spivey-Knowlton, M. J., Eberhard, K. M., & Sedivy, J. C. (1995). Integration of visual and linguistic information in spoken language comprehension. Science, 268(5217), 1632-1634.

Thothathiri, M. & Snedeker, J. (2008). Give and take: syntactic priming during spoken language comprehension. Cognition, 108(1), 51-68.

Wang, X., Wang, J., & Malins, J. G. (2017). Do you hear ‘feather’ when listening to ‘rain’? Lexical tone activation during unconscious translation: evidence from Mandarin-English Bilinguals. Cognition, 169(12), 15-24.

Weber, A., & Cutler, A. (2004). Lexical competition in non-native spoken-word recognition. Journal of Memory and Language, 50(1), 1-25.

Yu, W. Y., & Tsai, J. L. (2016). Modulation of scene consistency and task demand on language-driven eye movements for audio-visual integration. Acta Psychologica, 171, 1-16.

Research on Spoken Word Comprehension in Visual World Paradigm

LIN Tong; WANG Juan

(College of Educational Science, Jiangsu Normal University, Xuzhou 221116, China)

Abstract

Visual world paradigm is an effective tool for research on spoken language comprehension, which integrates linguistic information with information derived from the visual environment. A great deal of visual world research has converged on lexical processing. Main areas of interests are activation of phonology, semantics and visual information. On the other hand, bilinguals and children also attract researchers' attention. Research has found that children's abilities to recognize phonology is similar to the level of adults. But children's comprehension of semantics still drops behind adults. In bilingualism research, it is a critical question that whether lexical access in bilinguals is language-specific or alternatively both languages are active. Plenty of research has explored into the different bilinguals and find conflicting results. Importantly, the different visual stimuli, listening conditions and preview timing of visual world paradigm have a great impact on the results. Although many achievements of spoken word comprehension have been made in visual world paradigm, something in this area needs to be further investigated. Firstly, research on Chinese spoken word recognition can be strengthened. Secondly, special participants need more attention. Last but not least, future research ought to diversify visual scenes and listening conditions of visual world paradigm.

Key words: visual world paradigm; spoken word comprehension; lexical recognition

上一篇回2018年9月第9期目录 下一篇 (方向键翻页,回车键返回目录)加入书签

© 2016 毕业论文网 > 基于视觉情境范式的口语词汇理解研究进展