文化出版
视频点播更多>>
当前位置:
非正式科学教育评估研究综述
发布日期:2024-11-11 浏览次数: 字体:[ ]

朱雯文  宋 娴


摘 要:随着正式科学教育和非正式科学教育日趋紧密的合作,越来越多的研究者开始探讨在非正式环境中可能被激活的科学学习形态,并尝试采用更加规范、多元的标准和技术来评估其效果。然而,非正式科学教育的学习过程相当复杂,那些在正式教育中为人们所熟知的学习模型并不能被直接采用。因此,如何评估非正式科学教育,便成为当前科学教育研究面临的深刻挑战。通过对当前非正式科学教育项目的评估研究进行脉络梳理,本文探讨了当前非正式科学教育项目评估研究在评估框架、逻辑模型、开发设计等层面的进展,并对评估方法的多样性和评估指标的标准化等问题做出关键评述。

关键词:非正式科学教育;非正式学习评估;博物馆教育

中图分类号:G521  文献标识码:A   文章编号:1004-8502(2024)05-0005-13

作者简介:朱雯文,上海科技馆科学传播中心研究部助理研究员;宋娴,上海科技馆科学传播中心副主任、研究员。

 

近年来,在科学教育改革的推动下,非正式科学教育在培育科学素养和创新学习范式等方面的价值引发新一轮的广泛关注。相较于学校,在博物馆、科学中心、动物园、植物园、水族馆和各种新兴创客空间等非正式教育环境中发生的学习,被认为具有自愿性、非线性、开放性、社会互动性和高度文化响应性等特征[1][2],它们为人们构建了多样化、个性化的学习路径,是“真实世界的学习现象”[3]。对上述非正式科学教育的研究和评估,也被视作反思正式教育和标准化测量的重要突破口[4],是教育研究发展的一块关键拼图。

尽管如此,我们对非正式科学教育如何产生影响和产生何种影响依然了解甚少,至今缺乏一套清晰、通用的测量工具让这些影响变得可见。为此,本文尝试回溯当前非正式科学教育评估的发展脉络,梳理当前非正式科学教育评估在评估框架、逻辑模型、评估工具等层面的研究进展,为未来理解、设计和检验非正式科学教育提供重要的参考坐标。

 

一、非正式科学教育评估的发展历程

(一)非正式科学教育的早期评估

在20世纪上半叶,尽管当时还未形成“评估”(evaluation)这一专业概念,爱德华·罗比森(Edward Robinson)等研究者已在美国的博物馆开展了简单的经验主义研究。他们采用心理学的方法,通过观察成人和儿童等不同观众在展厅中参加的活动,记录其停留的位置和时长,以揭示观众在博物馆中的知识获取行为、注意力分配情况和学习疲劳现象等[5]。这些研究为后来者理解早期在博物馆中发生的学习提供了宝贵的经验数据。

从20世纪下半叶开始,博物馆、科学中心等机构对教育的兴趣日渐浓厚,与学习科学(learning science)兴起下教育界对非正式教育的关注一拍即合,研究者开始关注如何在这些多样化和非结构化的环境中更有效地评估学习成果。同时随着美国国家科学基金会(National Science Foundation, NSF)、英国科学与技术设施委员会(Science and Technology Facilities Council, STFC)等对非正式科学教育项目的资助日益增多,通过评估对其资金投入状况和产出效果进行监督也成为迫切需求,定期实施非正式科学教育评估逐渐被纳入欧美各国公共服务制度甚至成为国家战略[6]。

在多种因素的推动下,与教育评估相关的研究和实践从正式教育领域向诸如博物馆、科学中心等非正式教育领域快速渗透,并逐步进入规范化阶段。其中迈克尔·斯克里文(Michael Screven)以展览为样本,总结出公共项目评估的一般模式,确立了“前置性评估”“形成性评估”“总结性评估”等基本评估类型[7];玛丽·蒙利(Mary E. Munley)引入了以问卷和测试为主的量化评估,以及以访谈和观察为主的质性评估等基本方法[8]。本杰明·布鲁姆(Benjamin Bloom)关于认知、情感、动作技能领域的教育目标分类法,同样也被迁移至非正式教育的目标设计和效果评估中。朱迪·戴蒙德(Judy Diamond)、波莱特·麦克马纳斯(Paulette M. McManus)等一批学者则持续在博物馆、科学中心中等非正式教育环境对参观者实施行为观察和评估,为非正式科学教育研究积累了一批重要的早期数据[9][10]。

(二)走向生态学理解的非正式科学教育评估

20世纪90年代,非正式科学教育相关的理论模型与框架进一步被建立,场馆作为其中一种独特的、经过设计的“学习环境”备受关注。学者约翰·福克(John H. Falk)和林恩·迪尔金(Lynn D. Dierking)提出了著名的“学习的情境模型”(contextual model of learning),认为博物馆的学习是复杂、多层次的过程,会受到个人情境、社会情境、物理情境的共同影响[11],情境学习模型为理解非正式科学教育中个体和情境的复杂作用、多维度评估学习效果提供了重要的理论框架。乔治·海因(George Hein)、大卫·安德森(David Anderson)等学者则系统探讨了建构主义、社会文化理论对理解非正式教育的重要性[12],分析了非正式学习环境为学习者提供的学习机会和触发的学习类型,并提出能否提供资源和社会互动机会应是观察非正式学习环境的重要维度[13]。

在这些研究的影响下,非正式科学教育逐步走向一种生态学的理解。21世纪初,由NSF支持的研究报告《非正式环境下的科学学习:人、场所与活动》,以布朗·芬布伦纳的生态系统理论为基础,从“学习生态”的视角阐述非正式科学学习的发生系统,它将学习者置于研究的中心,探讨自主学习如何成为可能。基于公民科学素养测评的“米勒框架”,该报告还提出了非正式科学学习的“六大结果”:发展对科学的兴趣、理解科学知识、从事科学推理、对科学的反思、参与科学实践、认同科学事业[14]。这一框架也为确立非正式教育评估目标提供了重要参考。

此后,非正式科学教育评估研究日渐进入繁荣期,出现了一批经典的评估案例。例如,迈克尔·霍恩(Michael Horn)等学者在波士顿科学博物馆实施的基于数字媒体的科学教育评估[15]、史密森尼科学教育中心开展的LASER I3评估[16]等。

(三)聚焦影响力的非正式科学教育评估

在许多研究中,对非正式教育开展评估的复杂性也进一步显现[17]。比如,如何识别那些有意义的学习行为?如何分辨特定学习体验所造成的影响?尤其是在技术、教学方式和学习空间高度地交织影响的非正式教育项目中[18],人们的学习任务和学习过程具有相当的复杂度和开放性,激发的学习效果可能不仅包含认知层面,更涉及情感、态度、社交等层面[14]。此外,研究者也开始意识到,非正式教育项目或许应被视为个体非正式学习经验中的一系列事件节点,如何追踪其长期影响成为一大难点[19]。

为了回应上述挑战,2008年,NSF发布的研究报告《非正式科学教育项目影响力评估框架》做了一次里程碑式的尝试。该报告介绍了该基金会如何对其资助的美国非正式科学教育专项计划项目开展第三方审查,并开发出一套聚焦项目影响力的评估框架和在线监测系统。在这一项目中,非正式科学教育评估实现了系统性、规模化、规范化的实践,并以上文提到的非正式科学学习的“六大结果”为评估目标,以“前置性评估—形成性评估—总结性评估”为评估步骤,构建了持续性的非正式科学教育评估体系,包含了展览、大众传媒、青少年社区教育、在线学习等不同类型的评估对象[20]。

(四)技术高度影响下的未来非正式科学教育评估

21世纪10年代后,由移动互联网引爆的数字革命浪潮促成了世界范围内新一轮的教育评估变革[21]。由于大数据、物联网、机器学习等数智技术不断与传统行业融合,极大地丰富了当代的学习景观,迈克·夏普尔斯(Mike Sharples)等一批学者开始关注移动学习(mobile learning)的问题[22],即学习者可以跨越空间进行“无缝学习”,其关于知识的交互可能同时发生在现场和远程中。这一方面对于正式教育与非正式教育环境分离的传统分析视角构成了挑战,同时也对于非正式学习常用的跟踪评估方法构成了新的挑战。如何理解技术介入下的跨情境学习正日益成为相关领域研究的新前沿[23]。

总之,非正式科学教育评估研究经历了理论框架、评价目标和评价方法的系统演变,从早期基于工具理性地对单一学习效果进行评估,逐步转向了以人为本的价值理性和以学习者为中心的综合评估范式。进入21世纪以来,一批具有教育学、心理学、计算机、社会学、人类学、传播学等不同学科背景的研究者,不约而同地关注非正式科学教育领域,并为该领域的研究持续带来了多元的问题视野和创新技术。

 

二、非正式科学教育评估的目标和维度

在研究人员的长期努力下,非正式科学教育评估积累了一些框架性的基本问题,包括“为什么评估”“评估什么”“如何评估”等,有助于以后的研究者构建或反思评估框架。

(一)评估目标的确立

“为什么评估”讨论的是评估目标的问题,它涉及评估实施的根本动力。关于评估目标的确立,格兰特·威金斯(Grant Wiggins)等学者提出,应建立一些基本共识:无论何种类型的教育评估,其最终目的都应当是促进学习[24]。具体来说,杰里米·罗斯切尔(Jeremy Roschelle)等人从形态不一的非正式教育项目中总结了一些普遍性的评估问题[25]。比如,非正式的教育环境如何影响参与者的认知?他们经历了什么样的学习过程?这些体验是否能拓展到学习者的未来学习中?

然而,在真实的实践中,单次评估的目标可能与促进学习目标之间并不完全一致[26]。从评估需求来看,当前的非正式科学教育评估目标至少可分为两种类型。一是面向学习效果的评估,其核心在于了解参与者的学习需求、学习体验和核心困难。比如,英国博物馆、图书馆与档案馆的委员会于2001年推行的“学习效果研究方案”。此外,衍生问题还包括对教育人员的专业度评估,对展品/教具/软件的质量评估等,这往往需要对环境、媒介、学习者的行为及变化进行精细记录,以便为未来改善学习设计提供更多信息。二是聚焦项目/机构影响的评估,尽管这类评估最终也是为了促进教育,但其评估首先关注的是效率问题,即了解和监督教育项目的社会效益,促进相关教育政策和资源分配优化,美国非正式科学教育项目影响力评估就是这类评估的经典案例。此类评估往往要求广泛的受众,因此有时无法兼顾不同群体的需求和差异,对个体的反馈和帮助相对有限。

对评估目标的侧重点选择还呈现出一些社会文化的差异,这实际上与不同社会对非正式科学教育的理解和期待有关。比如李青提出,在欧美学术语境中,非正式科学教育目标更多围绕在是否促进个体赋权、彰显个体价值上;而在我国,对非正式科学教育的定位近于“准标准化的公共产品”,因此对其期待更多放在是否发挥足够的公益性、提供更广泛的教育机会、培育出社会转型所需的科学公民等方面[27]。

另外,受限于评估的资源和时间,真实的评估实践往往会被用于实现多种目的,比如既用于指导教学又用于分配教育资源。但有学者指出,这其实不是最佳的选择,甚至可能会导致评估的无效性[28]。

(二)评估维度的选择

“评估什么”讨论的是评估维度的问题,即以何种框架“识别”非正式学习的现象和效果。以博物馆参观为例,学习者可能在某一阅读牌前驻足阅读,可能体验某一交互展项,也可能是在场馆中移动或与他人互动。评估者需要关注学习者的哪些行为?当要了解其影响时,是询问学习者对科学信息的记忆,询问他们对这些知识的态度,还是询问他们产生了何种情感体验?

评估维度的选择背后,实际上是研究者对非正式学习模型的一连串假设,它们预设了人们如何在这些环境中获取知识并发展相关的能力。比如,上文提及的NSF非正式科学教育项目评估以“认知或理解”“参与度或兴趣度”“态度”“行为”“技能”“其他”六大维度构建了非正式教育影响力的评估框架;莱斯特大学博物馆研究中心提出的“通用学习成效”(Generic Learning Outcomes,GLOs)研究主要聚焦博物馆学习的测量,其维度包括“知识与理解”“技能”“态度与价值观”“愉悦、启发与创造力”“行动、行为的改变或进步”。两种评估在框架上非常相似(见表1)。

其中“认知”“行为”“技能”是较为经典的教育评估维度,也是相对容易识别的维度,基于行为主义和皮亚杰的认知心理学等经典理论,通过考察人们对环境信息的记忆程度、理解程度和迁移能力,了解他们的知识记忆、内隐记忆乃至认知图式[29]。

而“兴趣”“情感”“态度”等维度,更多是基于社会文化认知、情感学习等理论,这些软性成果具有跨时空的特征,相对难以识别。然而,它们反映了学习的心理过程和情境影响等问题,在产生个人意义、情境兴趣等方面的作用更加关键[30],更能展示非正式学习的隐性价值。

除了根据学习效果进行维度分类,也有学者提出从时间层面对评估维度进行划分。这种提法主要基于对影响非正式学习不同因素之间交织性的理解,以福克为代表的学者认为,非正式学习不能被视为单一事件,而应被视为一种更加长期的过程[31]。玛莉亚·鲁伊兹-普瑞莫(Maria A. Ruiz-Primo)等学者随后提出了“五点连续体”理论,即根据评估时间和学习发生时间的接近程度,将评估分为“即时”“接近”“近距离”“远距离”“远程”五大维度,主张不同时间的评估只是这一连续体上的不同节点,应当将它们串联考虑,根据其时间位置,采取不同的目标、形式和颗粒度[26]。怀泽(Marianne Wiser)等研究者则指出需要关注学习进程(learning progress)和“生产性”问题,主张以过程化的视角来看待学习者的学习行为,将学习区分为阶段性的结构,认为“知识”并不是一蹴而就的,它们在学习过程中甚至会与规范化的概念有一定差距,但会逐步“生产”出下一级知识与相关能力[32]。

 

三、非正式科学教育评估的开发与实施

关于“如何评估”的问题,实际上探讨的是实施评估的整套推理过程和方法工具问题。

(一)非正式科学教育评估的逻辑模型

研究者往往采用逻辑模型(logic models)这一概念工具,直观展现非正式科学教育评估项目的评估目标、推理过程和预期成果[33]。从表现形式上看,逻辑模型也可以被理解为一种评估技术路线图。

评估三角(assessment triangle)就是这样一种经典的逻辑模型(见图1)。研究者用“认知”“观察”“阐释”三个要素来建构教育评估的工作过程。其中“认知”主要是指在某一学科范畴内提出的先验假设,它影响着后续评估人员如何观察学习情境和行为,以及收集何种数据。“观察”则是基于认知假设的数据收集,即评估任务的实施。“阐释”则是基于相关统计方法对观察获得的数据进行处理[34]。

然而,评估三角只能展示一般性的评估过程。具体评估实践则需要在此基础上进行细化,以适应其研究目标。例如,NSF的非正式科学教育项目评估采取的是一种常见的“投入—产出”模型,其从“投入—活动—产出—结果—战略影响(长期影响)”五个环节来考察教育项目的投资与回报,其逻辑模型和关键指标设计如图2和图3所示。

从这一逻辑模型可以看出,这一项目特意区别了非正式科学教育项目中不同性质的行动者在项目中的投入问题,这有助于管理者在后期精准分辨该项目对不同利益相关者的回报问题。

这一逻辑模型的另一大特点是,综合了个体的学习成效,以及社区、环境、经济等的宏观效应。体现在指标设计上,项目关注了学习者在人口学和心理学上的变量,以充分展示评估之外的社会文化环境。同时,项目还关注了学习者以外的非人主体,包括产生的学习产品等,并把非正式科学教育的成果划分成短期和长期两类,有利于从整体上理解科学教育对社会产生的影响,包括但不限于提升对前沿科技的讨论度和理解度、形成创新氛围、提高对STEM相关职业的从业意愿度,等等。

在具体类别的非正式科学教育项目评估中,评估者则会更加聚焦某一部分的评估目标设计。在课程开发实施方面,富兰克林学习创新研究所为富兰克林科学博物馆与费城图书馆合作的“LEAP into Science”课程项目设计了系列化的评估方案,项目聚焦了三个具体的评估目标:①是哪些人参与了“LEAP into Science”的课程教学?②这些人是如何实施该项目的?③实施该项目对他们产生了哪些影响?该项目从“受众—活动—产出成果”三个环节设计评估逻辑模型[35]。

(二)非正式科学教育评估的评估工具

非正式科学教育项目评估的另一大难点是数据采集,尤其是受到资源、实践、评估者能力等诸多因素的限制下,能否获得足够效度的数据来验证假设,直接决定了评估设计的成败。这也会导致评估方法和指标工具有时反过来会影响评估者能回答什么问题[36]。

常用的评估方法主要有问卷调查、行为跟踪、实验和准实验性评估、结构化访谈、民族志研究以及各种混合研究方法。采用何种评估方法,取决于具体的评估环境和评估对象,同时也反映了研究者不同的研究偏好。

针对学习者的量化问卷调查和行为跟踪研究是最常见的方法,可用于评估展览参观情况、展品影响效果、课程学习效果等不同指标。以展览为例,对其评估可能涉及功能指标(包括展品的科学信息含量、提供的学习体验等)、管理指标(包括展览吸引的观众量、场馆管理水平等)、传播指标(包括在社会媒体中的报道量和美誉度等)[37]。当评估视野聚焦于针对具体科学类展品的评估时,还可以将指标工具细化为展示形式的丰富性、对观众的吸引力和传递信息的有效性维度,其中传递信息的有效性还需关注观众的认知结构等问题[38]。然而,采用问卷评估的缺点在于,比较容易依赖参与者的自我评价,需要对其结果进行交叉验证。

实验和准实验的评估方法通常被用于课堂前后测或不同对照组的测试中,相比问卷法,其样本更小,更易于找到要素之间的因果联系。一些经典案例,如美国科学教育改革领导援助项目(Leadership Assistance for Science Education Reform, LASER),就采取了维斯达特公司开发的基于标准的科学评估(the Assessment of Standards-based Science, PASS),来测试在LASER项目不同对照组实验中的学生的科学素养发展情况[14]。其测试内容由多项选择性回答、开放式问题、实际动手任务等题目组成,具有标准化测试所不具备的开放性(见表2)。

结构化访谈、民族志观察和反思日记之类的质性研究方法,更强调收集学习现象和经验,从不同主体视角提供对外在学习现象和内在情感体验的理解,同时又能为评估补充教育项目之外的文化环境信息。但这类方法在分析数据或资料时可能会带有研究者的偏见。

研究者还可以进一步拓展相关的评估方法,比如有研究者尝试引入会话分析(conversation analysis),尝试把肢体语言、情景分析和主体间对话纳入学习评估[39]。朱迪斯·格林(Judith  L. Green)等学者引入了互动民族志(interactional ethnography)的方法,通过标记一段周期性学习中的“行动者、时间和事件”,勾画出在一个学习网络中不同学生在不同时间参与的多形态学习的事件集合图,这些研究使得非正式科学教育评估从对主体性的关注拓展到对主体间的探讨[40],有助于后来者理解知识如何在复杂的群体交互中被习得,进一步回应了非正式科学教育研究中的社会互动问题。

除常见的研究方法外,还有许多适用于特殊学习环境的特定评估方法。比如在对博物馆观众的调研中,个人意涵图式(Personal Meaning Mapping, PMM)可用于具体评估某一特定学习经历会如何影响个体的理解以及意义产生的过程[41],它尤其适合于开放度较大的学习环境。从设计评估实施步骤角度看,PMM分为前后两步评估,在参观式学习开始前,评估人员会选择一个提示词(如一些关键的科学概念),让学习者写下就此联想的关键词、想法或图像等各种内容,并通过开放式访谈询问他们写下这些内容的原因。在学习结束后,访谈者又会邀请学习者扩充该内容,并围绕他们扩充的内容进行开放式访谈。这样的研究可以持续一段较长的时间,以呈现历时性的变化。通过前后对比,PMM直观地呈现了学习者对特定概念的理解变化和应用变化。

此外,利用虚拟现实、增强现实等技术为学习者创造全新的学习空间,同步搭建虚拟评估和反馈系统,并用人工智能进行数据分析,正逐步成为新趋势。诸如生物传感器、眼动追踪、面部表情识别等新技术也被嵌入到展览或课程中,用于即时监测学习者的参与行为、情绪反应和认知负荷。这些技术进一步拓展了非正式科学教育评估的想象力边界。相关的评估方法、适用场景和参考指标工具总结见表3。

当然,从评价方案的设计到评价工具的选择,再到对学习情境的具体介入,还有非常多的设计细节需要研究者去探讨。比如,有学者提出了评估颗粒度的问题,当评估设计与受众学习的情境越近、越高度相关时,其评估设计的精度也要求越高,但同时这也限制了评估设计的规模。当评估设计面对较大规模的群体时,研究者分配到每组样本的注意力资源也就更加有限,这些评估往往会采用更加通用的概念和框架,因而与学习情境的关联度就会越小,这也会导致这类评估对环境中复杂信息的反馈相当有限[28]。

 

四、结论

在加快建设终身学习社会和做好科学教育“加法”的大背景下,国家积极倡导学校加强与社会教育资源的有效衔接,这也对非正式教育的实施效果和后续资源分配提出了更高的要求,完善非正式科学教育的评估体系是必然趋势。

然而在当前,非正式科学教育评估还面临着技术、资源、制度等层面的一系列挑战。要真正推动非正式科学教育的评价体系发展,首先应构建更加灵活和综合的评估模型,注重整合和平衡质性数据和量化数据,以适应不同学习环境的需求,为之提供全面的评估结果。应将非正式科学教育视为学习者进行终身学习的持续过程,从实施单一、可见的效果评估,转向建立历时性、终身性的影响评价体系,并逐步建立通畅的反馈系统。另外,值得注意的是,受移动学习和教育系统变革等因素影响,非正式科学教育和正式科学教育正进行更紧密的融合[42]。比如,越来越多的博物馆正致力于开展基于科学课标的馆本课程,或者学校走进博物馆开展教学,学习者可能同时利用两种环境开展同一项学习任务。如何超越成为正式、非正式科学教育的分析层次,走向跨情境的学习评估,可能是未来评估研究的新前沿。

其次,不能囿于教育学的学科边界,应加强跨学科合作,充分利用计算机、心理学、社会学和传播学等多学科的理论和方法,为非正式科学教育评估探索出更加开阔的理论视野和开发出更具多样化的研究工具。研究者尤其可以关注大数据和人工智能等新技术在未来教育评估中的应用潜能[43]。比如运用VR和AR技术为学习者提供沉浸式的学习体验,运用视频研究等方法收集学习数据,运用生物识别、人工智能等自动识别学习行为和评估学习效果[44](相关伦理道德和知情同意制度也需要同步完善)。研究者还可以从社交媒体、游戏、在线论坛等在线环境中收集更多的非正式科学教育数据,当然大数据是否能够成功实现学习过程的深描,在当前的实践和研究中还是一项空白,有待后来者进一步检验。

最后,部分学者提出评估的重点并不是数据收集,而是评估者“沉浸其中”[36]。评估结果应被适当地“翻译”给不同的受众(如学习者、策展人、课程研发人员、决策者等),这意味着评估者不光要给出严谨的评估数据,还要基于实际情况给出判断和洞见,甚至后者所产生的社会影响可能更重要。另一方面,建立评估数据的开放平台和有效的公众参与机制,推动评估数据的融通和多领域行动者的参与,以在更长的时间尺度上支持非正式科学教育的未来发展,这也是未来重要的工作之一。

 

【参考文献】

[1] ESHACH H. Bridging in-school and out-of-school learning: Formal, non-formal and informal education [J]. Journal of Science Education and Technology,2007,16(02):171-190.

[2] BARAB S A, ROTH W M. Curriculum-based ecosystems: Supporting knowing from an ecological perspective[J].Educational Researcher,2006,35(05):3-13.

[3] ROBINSON V M J. Methodology and the research-practice gap[J].Educational Researcher,1998,27(01):17-26.

[4] PELLEGRIN J W. A learning sciences perspective on the design and use of assessment in education[M]//Sawyer R K. (Ed.). The Cambridge Handbook of the Learning Sciences. Cambridge: University Press, 2022:233-252.

[5] BITGOOD S, SHETTEL H H. An overview of visitor studies[J]. Journal of Museum Education,1996, 21(03):6-10.

[6] 上官剑,李天露.美国STEM教育政策文本述评[J].高等教育研究学报,2015,38(02):64-72.

[7] 郭希.西方美术馆公共教育项目评估方法研究[D].北京:中央美术学院,2014:2.

[8] MUNLEY M E. Museums as learning environments: A prospectus for a new century[J].Roundtable Reports, 1984,9(02/03):29-32.

[9] DIAMOND J. The ethology of teaching: A perspective from the observations of families in science centers[D]. University of California,Berkeley,1981:40-65.

[10] MCMANUS P M. Memories as indicators of the impact of museum visits[J].Museum Management and Curatorship,1993,12(04):367-380.

[11] FALK J H, DIERKING L D. The museum experience[M].New York:Routledge,2016:1-7.

[12] HEIN G E. Learning in the museum[M].New York:Routledge,2002:18-41.

[13] ANDERSON D, LUCAS K B, GINNS I S. Theoretical perspectives on learning in an informal setting[J].Journal of Research in Science Teaching,2003, 40(02):177-199.

[14] [美]菲利普·贝尔,布鲁斯·列文斯坦,安德鲁·绍斯,米尔·费得,编.非正式环境下的科学学习:人、场所与活动[M].赵健,王茹,译.北京:科学普及出版社,2015:26+54-72.

[15] HORN M S, SOLOVEY E T, CROUSER R J, et al. Comparing the use of tangible and graphical programming languages for informal science education[C]//Association for Computing Machinery.Proceedings of the SIGCHI Conference on Human Factors in Computing Systems,2009:975-984.

[16] ZOBLOTSKY T, BERTZ C, GALLAGHER B, et al. The LASER model: A systematic and sustainable approach for achieving high standards in science education. SSEC i3 validation final report of confirmatory and exploratory analyses[R/OL].Memphis: Center for Research in Educational Policy.(2016-08-31)[2024-03-17]. 

[17] SHUTE V J, VENTURA M, BAUER M. Melding the power of serious games and embedded assessment to monitor and foster learning: Flow and grow[M].New York:Routledge,2009:317-343.

[18] CARVALHO L, YEOMAN P. Framing learning entanglement in innovative learning spaces: Connecting theory, design and practice[J].British Educational Research Journal,2018,44(06):1120-1137.

[19] ALLEN S, PETERMAN K. Evaluating informal STEM education: Issues and challenges in context[J].New Directions for Evaluation,2019(161):17-33.

[20] FRIEDMAN A. (Ed.) Framework for evaluating impacts of informal science education projects[R/OL].National Science Foundation. (2008-03-12)[2024-03-16]. 

[21] 徐瑾,申昕.重塑以学习者为中心的教育评价生态——基于教育评价智能化发展的全球观察[J].开放教育研究, 2023, 29(03):40-46.

[22] SHARPLES M, SCANLON E, AINSWORTH S, et al. Personal inquiry: Orchestrating science investigations within and beyond the classroom[J].Journal of the Learning Sciences,2015,24(02):308-341.

[23] SONG Y. Methodological issues in mobile computer-supported collaborative learning (mCSCL): What methods, what to measure and when to measure[J].Journal of Educational Technology & Society, 2014, 17(04):33-48.

[24] WIGGINS G. Educative assessment: Designing assessments to inform and improve student performance[M]. San Francisco: Jossey-Bass Publishers,1998:103.

[25] ROSCHELLE J. Learning in interactive environments: Prior knowledge and new experience[M].Washington, DC: American Association of Museums,1997:37-51.

[26] RUIZ-PRIMO M A, SHAVELSON R J, HAMILTON L, et al. On the evaluation of systemic science education reform: Searching for instructional sensitivity[J].Journal of Research in Science Teaching, 2002, 39(05):369-393.

[27] 李青.现代性视角下美国非正式科学教育发展研究[D].成都:四川师范大学,2021:11-12.

[28] PELLEGRINO J W, DIBELLO L V, GOLDMAN S R. A framework for conceptualizing and evaluating the validity of instructionally relevant assessments[J].Educational Psychologist,2016,51(01):59-81.

[29] 马秀芳,李克东.皮亚杰与维果斯基知识建构观的比较[J].中国电化教育,2004(01):20-23.

[30] 郑瑞洲,洪振方,黄台珠.情境兴趣-制式与非正式课程科学学习的交会点[J]. 科学教育月刊,2011(340):2-10.

[31] FALK J, STORKSDIECK M. Using the contextual model of learning to understand visitor learning from a science center exhibition[J].Science Education,2005,89(05):744-778.

[32] WISER M, SMITH C L, DOUBLER S. Learning progressions as tools for curriculum development: Lessons from the inquiry project[M]//Alonzo A, Gotwals A. (Eds). Learning progressions in science: Current challenges and future directions.The Netherlands:Brill,2012:357-403.

[33] OTTO H J. Educational activities of the W. K. Kellogg foundation[J].The Elementary School Journal,1936, 36(08):604-618.

[34] PELLEGRINO J W, CHUDOWSKY N, GLASER R. Knowing what students know: The science and design of educational assessment[M]. Washington,DC:National Academies Press,2001:44-53.

[35] LUKE J J, ANCELET J E, FIGUEIREDO C. Leap into science: Year 3 evaluation report[R/OL]. Institute for Learning Innovation. (2010-12-01)[2024-03-17].

[36] [美]朱迪·戴蒙德,迈克尔·霍恩,大卫·尤塔尔.实用评估指南:博物馆和其他非正式教育环境的评估工具(第三版)[M].邱文佳,译.上海:复旦大学出版社.2022:45+145.

[37] 郑念,廖红.科技馆常设展览科普效果评估初探[J].科普研究,2007(01):43-46.

[38] 宋娴,胡芳,蒋臻颖.观众眼中的展品科学类展品传播效能评估研究[M].上海:上海科技教育出版社, 2018:65-70.

[39] KOSCHMANN T. Conversation analysis and collaborative learning[M]// Hmelo-Silver C, Chinn C, Chan C, O'Donnell A. The international handbook of collaborative learning. New York:Routledge, 2013:149-167.

[40] GREEN J L, BRIDGES S M. Interactional Ethnography[M]//FISCHER F, HMELO-SILVER C, GOLDMAN S,REIMANN P. International handbook of the learning sciences. New York:Routledge,2018:475-488.

[41] FALK J H, MOUSSOURI T, COULSON D. The effect of visitors' agendas on museum learning[J].Curator: The Museum Journal,1998,41(02):107-120.

[42] HOFSTEIN A, ROSENFELD S. Bridging the gap between formal and informal science learning[J].Studies in the Science Education,1996(28):87-112.

[43] CONLEY D T. The promise and practice of next generation assessment[M]. Cambridge,MA: Harvard Education Press,2018:10-75.

[44] ZAHN C, PEA R, HESSE F W, et al. Comparing simple and advanced video tools as supports for complex collaborative design processes[J].The Journal of the Learning Sciences,2010,19(03):403-440.


Produced By 大汉网络 大汉版通发布系统