工作组关于进行探究式科学教育(IBSE)项目国际评估的报告

  江苏汉博教育培训中心 编译

 

目录

执行总结

 

引言

 

1.0  项目概述

1.1 基本原理

1.2 IBSE含义

1.3 项目目标

 

2.0 IBSE的运作:目标和实施

2.1 IBSE的学习目标:学生应该知道什么?

2.2 IBSE的指标

 

3.0 项目评估的目的和程序:总则

3.1 项目评估的目的

3.2 项目实施和评估的阶段

3.3 项目的实施和效果

3.4 评估者和教师的活动

 

4.0旨在改进项目实施的评估

4.1步骤概要

 

5.0 IBSE项目对师生所产生效果的评估

5.1 开发项目效果评估的步骤

5.2 开发衡量IBSE对学生产生影响的测试及任务

 

6.0 IBSE国际评估程序的组织和执行机制

6.1 实施本地评估的建议机制

6.2在各国家科学院主办的地区和国际会议上分发《IAP工作组报告》

 

7.0 建议

7.1 与本报告相关的建议

7.2IAP其他工作的建议

 

 

附录

A  IAP工作组成员和观察员简历

B  各类资源

C1在小学教育中实施IBSE项目的国家

C2 IBSE项目实例

D  IBSE评估联合的研究

E  图表:项目实施的各阶段

F  收集定性资料方法的示例

    F1 课堂观察

F2 对教师和学生访谈的指导原则

    F3 对教师和学生的调查问卷

G  成果测评工具的示例

    G1 学生的发展过程和概念掌握的成果

    G2 学生的态度

    G3 教师的成果

 


 

工作组关于进行探究式科学教育(IBSE)项目国际评估的报告

执行总结

本报告由国际科学院联合组织(IAP)成立的国际工作组完成。工作组负责建议如何为在不同国家开展的对小学生[1]的探究式科学教育(IBSE)项目的评估提供帮助。现已知至少30个发达国家和发展中国家正在本国的一些小学开展某种形式的IBSE,需要了解IBSE项目对学生和教师影响的相关信息。

 

目标和步骤

工作组的目标是为以下一项或多项提供相关指导:

l        收集课堂实施内容与IBSE课程目标符合程度的相关证据,并向当地的项目开发者反馈信息,以改进项目实施;

l        开发适用于测评IBSE成果的工具,以测评学生的科学学习;

l        设计评估方案,这些方案能够将IBSE项目与传统的科学教育项目进行比较,或者能够测评参加IBSE项目的学生的逐年进步情况;

l        设计研究方案,以增加对IBSE的理解,同时也能够改善IBSE的教学方法、教材和职业培训。

工作组寻求通过20063月在华盛顿和20066月在巴黎举行的两次会议达到以上目标,工作组还在会议之间准备了本报告的草稿并多次修改。包括科学家、科学教育家和项目开发者在内的国际专家审阅了本报告的最后一稿,最后的定稿中也考虑了他们的意见。

 

IBSE的含义

工作组认为IBSE不是一种单纯的教学法,而是一种有着主要特征并可以以多种方式实施的教学法。IBSE与传统科学教育有些相同之处,但在很多方面又是不同的:IBSE不仅仅是处理教材,其主要因素为让学生参与到识别相关证据、进行判断性推理和逻辑性推理并思考如何解释中去。IBSE的主要区别性特征是:

l        学生通过对已收集到的证据进行思考和逻辑推理来生成概念,使自己能够理解周围世界的科学方面。这可能需要让学生亲自处理物体和资料以及观察事件,也可能需要学生运用从包括专家在内的一系列信息源中收集到的第二手证据。

l        教师引导学生通过自身的活动和推理培养探究技能和发展对科学概念的理解。这需要教师推行分组作业、讨论、对话和辩论,以及为直接调查和试验提供材料。

工作组还把这些概括陈述按照教师的探究实践、学生的探究体验和学生探究过程的学习成果、科学概念、科学态度和科学品质几个方面作了进一步的阐述。

 

评估的作用

IBSE项目的开发和实施中,评估有若干作用。工作组的工作重点是研究在项目已经开发、或者已经沿用或修改其他地方开发的项目时评估所起到的作用。项目开发过程中评估的重要作用未被考虑,因为这会超出方案的研究范围,建议应设立一个单独的方案以解决这些问题。

一个已经验证的方案实施要经历不同的阶段,沿着从只有少数班级和学校参加、未能实施所有意图的早期阶段,到有大量学校参加、大部分方面的意图得以实施的高级阶段的方向发展。评估的过程和作用根据在这一发展过程中方案实施所处阶段不同而有所不同。在项目实施的早期阶段,评估的重点是形成性评估,提供如何改进项目实施的信息。需设计评估以解决如下的问题:教师和学生所进行的活动是否与项目原本计划的相一致?教师和学生的学习内容是否与计划内容相一致?教师和学生之间的互动以及学生与学生之间的互动是否符合预期计划?课堂对话的特征是否与项目中的设想相一致?在早期阶段不适合评估学生的学习成果;只有到了后期阶段有证据表明学生有学习体验、可以学到预期的内容时,才值得这样做。因此,在后期阶段,除了收集与教师如何使用IBSE教材和学生的学习体验相关的证据,还要收集与学生的探究技能和知识、对科学概念和态度的理解相关的数据。

 

评估的步骤

如果评估的目的是为了给项目的早期实施提供信息和反馈信息,可通过近距离观察教师和学生、给老师和学生作访谈和问卷调查、以及查阅教师的教学日志和学生笔记来收集数据。

在项目实施的后期阶段,除了有关课堂过程的信息外,评估还会提供有关学生探究技能、科学概念和科学态度的学习情况的终结性信息。评估会依据需要解决的问题而设计,在某些情况下,问题有关项目中具体规定的期望成果的实现程度;在另外一些情况下,问题则集中在IBSE项目中学生的学习成果是否与其他的科学教育项目中的相同或不同(更好或更差)。处理IBSE与其他项目相比的问题时,需要仔细进行评估设计、选择IBSE和对照班级、以及挑选和创新评估手段。如果可能,应该运用现有测评手段,同时补充作为IBSE成果的需要特殊技能和理解力的测评项目。报告的附录给出了评估手段和测评项目的示例。

 

报告和反馈的步骤

参加这个方案的国家将会得到帮助,为不同的听众提供详细程度不同的报告。在适当的地点,当地和国际的评估者会举行讨论会,为评估结果的不同使用者提供面对面的反馈。然而,在国际范围内开展评估的目的是通过在国家之间分享评估步骤和结果来增加每一个评估研究的价值。这样,除了对开展评估国家的独特价值外,评估结果还会为在不同情况下对IBSE影响的更广泛理解做出贡献。大家清楚地了解,从不同国家收集的报告不会被用于对各国IBSE项目质量或是对各国学生的表现进行分级或比较。由于科学教育继续在国际范围内发展,将来自不同国家的评估结果聚合而形成的概要报告只会被用于拓展各参与国的视野,也可以用于收集有关在不同情况下和不同国家中IBSE效果的证据。

 

国际评估方案的运作

建议国际评估方案的运作应该由一个由四到五名成员组成的国际监督委员会(IOC)监督。IOC首先草拟一个IBSE评估和研究的国际专家名单,从中选出成员组成国际评估小组(IET)以支持具体评估方案。希望参加国际评估方案的国家要联系IOC,并在它的帮助下做出提案说明评估研究的目的和可能的设计。然后IOC会从专家名单中找出一个IET,其成员能够为当地的评估小组在评估的计划、执行和报告方面提供支持。每个国家都会公布评估报告,并将其提供给IOC,目的在于由它把各国的报告综合并提供给所有成员。

 

建议

有关国际评估方案,工作组建议:

l        实施IBSE项目的国家应当评估项目实施的程度和影响,并为此成立本地评估小组。

l        成立国际监督委员会,设法为需要的国家提供实施情况评估的支持。

l        国际评估小组与本地评估小组合作,为评估提供支持并提高当地进行评估的能力。

l        不同国家的评估程序和结果的报告可以提供给其他国家并由IOC综合,以增加对IBSE及其在不同情况下的实施的总体理解。

进一步建议IOC应该:

l        IBSE评估列出一个相关的研究文献的纲要。

l        获得充分数据时举行国际研讨会,讨论来自不同国家报告的综合结果。

l        设立研究生补助计划,支持缺乏评估和研究专业人才的国家构建专业能力。

最后,工作组指出了下列与IBSE相关但在评估方案之外的工作,建议IAP予以考虑:

l        设计为各国在设计和开发或改进IBSE项目提供帮助的方案。

l        为各国创建指导原则,能够利用它们形成帮助教师在执行IBSE项目时测评学生并评估自己的教学效果的材料,并将其融入到IBSE项目中。

l        推广研究方案,旨在增加对科学的探究式学习的特性以及在不同的情况下如何最佳实施的认识和理解。

 

 

 

 

 

 

工作组关于进行探究式科学教育(IBSE)项目国际评估的报告

引言

本报告由研究科学教育的国际专家工作组提出。在智利科学院的领导下和Jorge E. Allende教授的共同协助下,负责国际问题的国际科学院联合组织(IAP)根据世界各国科学院的决定设立该工作组,协同致力于改善小学[2]科学教育200631617日在华盛顿召开的首次工作组会议上,工作组成员和观察员筹划“一个为世界上不同国家开展IBSE方案和项目评估提供帮助的国际平台(参考术语)”并开始着手准备。专家工作组就报告的内容达成一致,包括评估目的、可能的设计与方法的基本方针,并就国际评估项目方案的推广与实施达成一致。专家工作组成员进行了分组对提议报告中的各个不同方面进行研讨

在第一次工作组会议后,各小组通过电子邮件沟通,继续提出了本报告中的各部分和附录的内容。在先后的草案传递通报后,根据所有成员的意见形成了这份报告,并在2006615-16日的巴黎会议上及会议之后得到了提炼和细化。

本报告正文共七个部分。第一部分概述了该国际评估方案的基本原理、目标、目的和优势。根据各国IBSE项目实施的不同阶段,该评估方案可服务于不同目的。需要强调的是,促进国家间学生成绩的比较不是本评估方案的目的,这正是它区别于其他国际调查(比如PISA[3]TIMSS[4])的几点之一。

报告第一章简明地讨论了IBSE的意义。第二章讨论了作为IBSE的课堂特点的几种实践和学生学习成果。第三章讨论与评估目的相关的一些综合性思考,在项目不同实施阶段中,评估目的从以改善项目实施为中心的阶段发展到以按计划实施的IBSE项目所取得学习结果为中心的阶段。这就引出了第四章和第五章,分别讨论了为改善项目实施的评估和对一个制定好的IBSE项目效果的评估。

报告第六章阐述了国际评估方案的运作方式、参与国将接受的帮助、IBSE评估义务的含义、以及方案信息的发布方式。最后一章是一个简短总结,列举了专家工作组的建议。部分建议源于报告中的一些论点和证据,另外一些建议参考了工作组之外的工作,但也认为对全球IBSE的进一步发展和理解具有重要意义。

附录中提供的材料列举了与本报告背景知识相关的研究、报告和其他原始资料,说明和详述了报告正文中提出的观点。

专家工作组所有成员与观察员都为撰写本报告付出了心血。在很多情况下,报告各部分的草稿和全稿的修改都是合作完成,个人贡献难以逐一认定,因此我们在此列出所有人作为本报告的共同作者。(成员详情参见附录A

报告作者(作者简介请参见附录A

专家工作组成员

Julie Campbell

  Ernst Hamburger

Wynne Harlen

Glenn Hultman

David Klahr

Jean Matricon

Jayashree Ramadas

Patricia Rowell

Richard Shavelson

 

观察员

Bruce Alberts

Jorge Allende

Philip Bell

Sally Goetz-Shuler

Pierre Léna

Jean Moon

Yves Quéré

Senta Raizen

 

 


 

 

1.0           方案概述

探究式科学教育(IBSE)为全球科学教育家们所广为推崇,并正在部分发达和发展中国家的学校中实施。在附录C中列出了已知实施IBSE项目的国家名单,并从中挑选了5个项目进行了简介,显示IBSE可以不同方式进行实践。虽然IBSE与传统科学教育有些共同之处,但它拥有一些区别性特点,表1总结了这些主要特点。

 

1

探究式科学教育的区别性特点

 

  • 学生通过对已收集到的证据进行思考和逻辑推理来生成概念,使自己能够理解周围世界的科学方面。他们将
    • 亲自处理物体与材料及观察事件;
    • 运用从包括专家在内的一系列信息源中收集到的第二手证据
    • 提出调查问题,进行预测,计划和进行调查研究,解决问题,验证观点,对新证据进行反思并形成新的假设;
    • 与他人合作,分享观点、计划和结论;通过对话提出自己的见解。

 

  • 教师引导学生通过自身的活动和推理培养探究技能和发展对科学概念的理解。这需要教师推行分组作业、讨论、对话和辩论,以及为直接调查和试验提供材料并提供信息来源。

 

本概述部分力求为开发评估方案、如何在方案中理解IBSE以及方案目标包括和不包括哪些内容提供理据。换言之,概述部分讨论了提议该评估方案的“原因”,而后面的部分则为评估方案的“内容”和“方式”提供了指导。

 

1.1 基本原理

1.1.1 采用IBSE的理据

通过探究学习科学有望增进学生对科学活动的理解、参与和喜爱,并有助于提高普通(通识)教育。通过参与科学探究的各个过程,学生们掌握了“科学素养”,即能够大致了解科学中的重要观点、科学研究的本质和对证据的评估和解释。这些教育成果对于所有公民都重要,而不仅仅对那些成年时从事科学职业的人才重要。

培养学生科学素养必须从小学开始,因为学生需要了解的观点和框架都是无法直接讲授的“大”观点和框架,需要由学生熟悉的物体和事件相关的“小”观点来建立。小学科学教育的任务是通过保证这些“小”观点不仅与学生预想观点一致而且与证据一致,帮助学生建立起理解。对学生自身观点的研究[5]已经表明这一点非常重要。

人们热衷于采用IBSE作为教授和学习科学的方法具有理论和实践理据。理论方面的理据与在快速变化和技术发展的社会里就学习目标而言我们能够取得什么样的成就有关。为了为将来做好准备,学生们必须:理解重要的科学概念而不仅是知道某些事实;理解科学的本质,包括其优势和局限性;知道如何学习,这样离开学校后他们能够终生使用这些技能。正如经济合作组织(OECD)所指出,学生在校期间无法学完成年后所需的所有的知识。为了将来能够成功学习,他们在学校必须学会认知技能和态度。“学生必须能够组织和调节自身学习,能够独立和协作学习,能够克服学习过程中的困难。这要求他们意识到自身思维过程及学习的策略与方法。”[6]

关于学习如何进行的现代观点支持了IBSE能带来这些教育成果的说法,该观点认为学习是学生对知识的建构和重建。虽然还有其他关于学习的观点,本文档中提议的评估方案目的之一就是提供证据支持学习依赖于学生积极参与,从而逐步培养理解力的说法,其中探究技能起到关键作用,因为每次新的体验都与现有的观点相关。我们将在后面的第二章中讨论它对于课堂中教师和学生角色的意义。

就实践方面而言,与IBSE过程和结果相关的研究和评估以及将它与传统的传播式科学教育比较所获得的证据数量有限。本评估方案的结论之一将成为IBSE实施成果的证据。

 

1.1.2 IBSE与其他学科教育

IBSE的区别性特点之一就是强调通过讨论和辩论以及亲自调查物体与材料培养学生的理性思维和来形成观点。例如,瑞典NTA项目(主要由美国国家科学资源中心的“儿童科技项目”发展而来)的主要目标之一就是鼓励师生的语言能力培养。此外,通过培养对证据的思考,IBSE的价值超越了语言和数学,涉及到了其他学科尤其是地理、历史和社会科学中的思维。这些理据增添了在早期教育中实施IBSE的砝码,因为IBSE除了有助于学生对于身边世界的理解,还有益于基本读写和其他方面的学习。如果能够将IBSE确立为学生学习体验的一部分,或许那时能够在小学课程核心科目中学生表现中检测到其效果。

 

1.1.3 IBSE的相关问题

任何创新都不可避免地会遇到能否证明其论点的质疑。“它能有效吗?”是一个常见问题。另一个问题就是它能否在任何情况下实施而不是在学校老师能够得到援助的小规模范围内实施,这样的援助在大规模范围内是无法得到的。

IBSE而言,人们提出了很多探索性问题。虽然IBSE没有单一和固定的形式,但所有的IBSE方法都要求不仅要改变课堂上所使用的教材,还要改变教学方法,改变教师、学生和教材之间的关系。如果教学没有根本性的改变,会用到学生不能按照预想的方式与之进行互动的课堂教材,而互动是让预期的学习继续所必需的。因此在探问学生从IBSE中学到什么之前,先探问以下问题:

IBSE是按照预期实施的吗?

这个问题要分成几个小问题,比如:

IBSE的原则是否体现于

·        学生所能接触到的教材 (书面教材和其它资料) ?

·        学生与教材互动的方式中?

·        学生与学生之间如何互动中?

·        教师的行为和教师与学生的互动中?

只有当IBSE在学生体验中充分体现出来,并经过合理的时间后,才适合询问学生的学习成果,否则会得出虚假实证性结论从而导致错误决策。

 

1.1.4 评估的重要性

以上问题的提出和解决意义重大,因为IBSE要求对教师教育、教材和教师为在实践中带来所要求的改变而付出的努力进行大量资源投入。本评估方案的目的就是帮助各国回答有关IBSE过程和结果的问题,不论其改变的实施是仅处于开始阶段,在高级阶段,还是在某个中间阶段(参见3.2小节)。

 

1.2 IBSE的意义

1.2.1 探究的定义

探究这个概念作为教育的一个重要要素并非新鲜事物。在二十世纪六十年代很多教育评论和项目以及八十年代的一些教育项目都以它为特色[7]。然而,更多最近的讨论就其对教和学的意义做出了定义。虽然探究不仅限于科学教育,但美国国家研究委员会(NRC)就此方面做出了如下定义:

探究是一种涉及多方面的活动,包括:观察;设问;察看书本和其他信息资源以了解已知信息;设计调查;根据试验证据查阅已知信息;使用工具收集、分析和解释数据;提出答案、解释和预测;交流结果。探究要求辨析假设,运用批判性和逻辑性思维,并考虑其他可用的解释[8]

美国国家科学基金会(NSF)的一份出版物中有一句话对于学生的学习体验做出了更多的阐述:

探究式教学,通过学生直接体验材料、查阅书本及其它资源和向专家咨询,以及在他们之间展开讨论和辩论,引导学生建立起对于基本科学观念的理解。所有这些都是在课堂中教师引导之下进行的[9]

其他定义,比如在法国项目中体现出的探究十大原则,中国项目中体现的九大原则,澳大利亚项目中体现出的五大要素(参见附录C2)与上面引文中表达的观点不谋而合。从这些定义和其他资源,我们可以确定IBSE的一些关键特点,在报告的第二章中列出。

 

1.2.2 探究在学习中的作用

必须要避免有这样一种错误的印象,即认定IBSE项目中所有科学活动必须包括探究的所有特征,这很重要。IBSE的广义定义指出了学生老师的一组复杂的活动,这些活动毫无疑问对于取得科学教育的一些目标是必不可少的,这些目标包括:“大”观点的养成;使用这些观点解决问题的能力;对于科学观点是如何从证据中产生的理解;灵活的思维倾向性和尊重证据的素质。然而,通过直接授课能更有效地学习到其他东西,例如步骤、惯例、名称和设备使用的基本技能,这些在需要时讲授效果最好。因此,不要指望所有科学学习都包括探究活动,但同样重要的是确保在合适的地方使用探究。比如,植物各部分的名称可以直接讲授,但理解各部分功能从而了解植物的需求最好通过探究实现。

此外,在特定情况下需要使用何种特定探究技能取决于研究的内容。由于学生不能直接接触到所有的学习物体,他们并非总能亲自处理研究对象。比如,在理解太阳、月亮和星星明显的运动时,对他们不能进行控制性研究,但可以依靠仔细观察、使用模型和对不同理论和观点的结论进行解释来研究这些物体。因此,并非所有的探究活动都能展示出IBSE的全部特点。

总之,使用探究的合理度取决于活动的目标,所使用的探究技能也将随主题变化而变化。然而,经历了一段时间后,学生们有望拥有各种探究体验,这些活动联合起来能为学生运用和培养全方面的探究技能提供机会。

 

1.3 评估方案的目标

1.3.1 提供帮助的范围

本项目由IAP发起,其明确目的就是帮助那些已经实施或计划实施某种形式的IBSE项目的国家,以便通过评估来促进小学科学教育。为此组建的工作组正计划帮助各国培养人力资源和开发教材,根据各国实施IBSE达到的阶段进行评估和研究方案。此IAP方案设想为以下一个或多个方面提供指导:

l        收集课堂实施内容与IBSE课程目标符合程度的相关证据,并向当地的项目开发者反馈信息,以改进项目实施;

l        开发适用于测评IBSE成果的工具,以测评学生的科学学习;

l        设计评估方案,这些方案能够将IBSE项目与传统的科学教育项目进行比较,或者能够测评参加IBSE项目的学生的逐年进步情况;

l        设计研究方案,以增加对IBSE的理解,同时也能够改善IBSE的教学方法、教材和职业培训。

在有些国家,项目实施只是刚刚开始,仅有部分方面就位。第一条可能与他们最相关。(这种以改善项目实施为目的的评估称作形成性评估。)这包括开发和运用不同方式收集学习过程和体验的证据,比如观察、研究学生笔记、访谈、和师生对于自身实践和偏好的自我汇报。已制定IBSE的国家也可能需要证据证明预期的学习是否真正发生以及这种学习与传统科学教育中的学习在多大程度上相似或不同。(这种以评价项目成果为目的的评估称作终结性评估。)无论是否需要与其他学习方式进行对比,很多国家希望能够报告学生的学习,跟踪IBSE项目中学生学习的进步情况。除了评估IBSE的实施情况或对于学习的影响,各国还希望研究IBSE的其他方方面面。在附录D中对出现的研究问题中的部分类别进行了总结。

本文的第六章列出了提供帮助的具体建议。

 

1.3.2 评估方案的独特目的

在概述本方案主要目的的同时,阐明哪些内容超出了其意旨是有裨益的。本评估方案不是建立一个项目进行国家间的比较,也不在一个国家内进行学校老师间的比较。

IEAPISA调查中已存在测评学生成果的国际项目,重要的是要意识到本文提议的国际方案在目标和步骤上具有独特性。这些国际调查和如美国的NAEP[10]的国内调查从随机的学校和学生样本中提供特定年级学生学习结果的有关信息。这些调查获取了一定范围内课程成果的相关丰富信息,但这意味着学生个体参与了小部分样本试验而且该调查结果对于学生、班级或学校层面不具有意义,只有累计到全国、州或选定地区层面才有意义。虽然这些调查能够依照学生变量(比如性别,民族/种族,地理区域等)报告出比照成绩,但这些综述不一定适用于每所学校。此外,尽管所报告的信息是通过学生、老师和学校问卷调查方式收集的,但调查的规模阻碍了对课堂过程、实践和体验的信息进行直接和具体收集。在IBSE实施的各个阶段,尤其是在关注体验和步骤而非学生成绩的早期阶段,对IBSE项目的评估需要的是更多具体层面的信息。

IBSE项目全面实施阶段即关注学生成绩的阶段,进行评估时,本IAP方案将会利用与其独特目的相一致的国际调查取得的信息,就象从其他研究中取得信息一样。本IAP方案不会为各国提供现成的工具。即使为各国提供的指导原则相似,但在各国开发的用于评估学习过程和结果的工具不会同样相似,可以相互比较。这样做的目的无疑是为了让各国收集IBSE评估所需的信息,并学习他国经验以确保本国IBSE项目的开发和实施取得进步。各国在他们的评估工具中加入一些共同的项目将有助于这种学习(参见5.1.2),但这只是为了了解不同条件下IBSE的有效性,而不是为了进行国家间比较。

 

1.3.3 参与项目的益处

参与这项国际项目的益处包括:

  • 借助国际专家支持评估并提高本地实施评估的能力;
  • IBSE中应该在训练和支持上给予关注的主要方面提供基于国际经验的指导原则;
  • 提供保证开展优质评估的步骤,这增加了评估结果的影响力;
  • 获取其他国家评估报告和结果,了解在各种不同条件下哪些是可能实现的;
  • 通过国际专家互联网获取相关研究信息.

 

1.3.4项目的含义

这里提到的“项目”指评估涉及到实施IBSE所需要的所有各种行为、资源和动议。可能不仅仅包括提供相关书面和非书面材料以及课堂上使用的设备,还包括向教师、学校管理和影响课堂活动的教学检查者和顾问提供职业培训,以及为项目中各学校间合作所提供的非正式支持。告知父母和更广泛的公众时采取的步骤也与此相关,它能确保负责课程和考试的机构意识到正在发生的变化和发生变化的原因。

 

 

 

2.0           IBSE的运作:目标和实施

 

IBSE实施和成果的评估要求使用如期待学生在科学学习所用的方法一样的严谨的方法。因此对IBSE必须细致地从三个方面进行描述:学生学习的最终目标,实施的特点和关于其效果的证据令人信服的特性。

 

2.1 IBSE学习目标

IBSE提倡一套超越传统科学教育目的的学习目标,其特征是对于科学是什么提出了一种新兴、多面的观点[11]。这包括以下几方面:

 

2.1.1 自然界知识

传统科学教育和IBSE方法的基本核心都是认清各种事件和现象。然而人们很难准确地就科学教育包括哪些内容,不包括哪些内容,按照何种顺序讲授自然界知识这些问题达成共识,而这些知识有可能成为任何年级、任何科学教育教学的一部分。在下面2.2.4节中,我们列出了这部分知识可能包含的内容,仅作参考,决非“核心知识”列表。这些内容是世界各国间多种不同科学课程的核心,我们并不尝试在本文中创建一种全球课程。同样地,技术教育是否是科学教育的一部分取决于学生水平和国家对于技术的观念。在这一点上我们比较灵活,既不明确包括,也不明确将其排除。

 

2.1.2 观察、提问和实验的过程

这一方面强调一种独特态度:对自然现象不是想当然,而注意观察自然现象,查明自然现象的发生,发现其规律,对观察到或发生的结果是否可能存在的一种(或多种)解释提出疑问。产生和表述疑问是科学态度的基本要素,它密切联系着逐渐掌握一种恰当、准确、严谨的语言去表述问题及预想答案,进而运用数学工具对自然现象进行测量、比较和符号表达。

 

2.1.3 对证据进行逻辑推理的过程

这个方面强调了可应用于所有科学内容和其他领域(见1.1.2节)“证据推理”过程的作用。这些过程主要包括想象、直觉、形式逻辑、查找方法和解决问题的策略。具体地说,参与科学探究的学生必须能够运用各种策略解决定义模糊的问题[12],协调理论和实验与观测过程获得的证据[13],区分那些支持和不支持明确性结论的各种证据类型,并能分析出不同参数,理解实验和观察设计中的逻辑。这些过程和技能并不依赖于任何具体学科领域,因此反映出一定程度的普遍性和可转移性。

 

2.1.4 概念演变的过程

这个方面强调,在遇到新的观测或实验时,学习者观念和相关推理会逐渐修正。这种过程可能包括在科学家中发生的先入之见的改变或具有抽象本质的新概念的出现。通过新事实和知识渐增、一种观念被另一种取代,新实验或新观察中出现的证据可能会带来变化。同样地,就学生和科学家而言,现有的非科学思想会阻碍新思想的形成,除非人们能够确认这些观点的非科学性。这种观点更重视概念演变的过程而非掌握整体过程,将科学视为人类弄清周围世界的一种努力。

 

2.1.5 科学实践的参与过程

无论是文类学家、人种学者、社会心理学家,还是那些研究情景认知的心理学家和教育家,都十分强调科学即实践这一理念。新的科学发现总是出现在一个特定的文化和社会背景下,由此逐步普及开来。科学即实践观认为观察事物、提出问题、创建和推理理论都是某个更大的整体活动的组成部分,这种活动又包括参与活动的人员和机构网络以及讨论、记录、辩论、模仿和描述科学数据和现象的专业方法。

 

2.2 IBSE 的指标

衡量IBSE是否成功的最终方法是要看它在促使学生了解自然界、发展学生的探索技能和态度以及让学生能够多角度地理解给出的科学问题等诸方面到底取得何种成效。本报告书的第五部分即讨论了如何来评估这种学习结果的方法。其它衡量方法在下文中已一一列出,如关于教师培训、材料更新、课堂实施和学生的课堂表现,它们都是针对学生学习最终输出的输入衡量法。然而,对于IBSE结果的任何有效评估的基础必须是有证据表明IBSE确实是在实施着。

因此我们一开始就描述了这个评估过程,并列出了可以表明教师正严格按照IBSE的基本原则实施IBSE的各种情形。当然,没有哪一种情形在单独抽出来之后会与探究有着独特的关联。相反,这些情形综合起来却可以解释探究式教学实践的含义。接着我们就详细列出了我们希望看到的学生所参与的各项活动,最后对于参与IBSE的学生应该知道和/或能够做的事情我们初步列出了一些认知目标和态度目标。我们再次强调,脱离了这种背景,我们所列出的任何一项都不能单独阐释我们正试图描述的情况。

 

2.2.1 教师的探究实践

教师将从事以下工作:

l        为学生提供机会,让他们能够接触到用以探索或调查的一手资料和现象。

l        以小组或班级为单位,组织学生对他们计划要从事的过程或已经完成的过程展开讨论,以找出可以使某些调查取得更好进展的方法。

l        鼓励学生在讨论过程中要遵循宽容、相互尊重和客观的原则。

l        通过与学生讨论、提供书目和其它帮助学生的方法为他们提供其它实施步骤和观点。

l        在设置具有挑战性任务的同时也要为学生提供帮助,这样他们就能在更高的层面上进行实践。

l        给予学生在从事高级技能时所必要的技能指导,如设备的使用、衡量方法和常规符号等。

l        用评语来鼓励学生,通过提问来检查学生的观点是否和获得的证据相一致。

l        帮助学生用便于进行系统工作和审核的正确方法来记录他们的观察结果和其它相关信息。

l        鼓励学生对于他们如何学到这一切以及如何把所学的一切应用于将来的学习之中等问题进行深入思考。

l        通过提问鼓励学生应用科学探索的技巧。

 

2.2.2 学生的探究实践

学生将会:

l        通过观察真实事件或其它方式收集证据。

l        认同那些即便是老师提出的问题,并在实践中探究这些问题。

l        进一步提出能引领他们展开调查的问题。

l        根据自己的想法或发现作出预测。

l        与教师或同学讨论自己正在观察或调研的事情。

l        通过书面和口头方式用自己理解的恰当的科学术语表述自己的想法。

l        提出用以检测自己或他人观点的方法,看是否可以找到支持这些观点的证据。

l        用适当的控制手段参与调研计划的安排,以寻求问题的答案。

l        恰当而自信地运用测量仪器和其它设备。

l        尽可能自己解决问题。

l        在调研过程中通过信息来源获得自己需要的事实。

l        用证据来评估不同观点的价值所在。

l        愿意考虑别人的观点。

l        对自己的探索过程和结果进行自我反思。

 

2.2.3 学生对于探索过程的运用

学生将能:

l        提出能通过调查找到答案的问题。

l        进行描述、假设(解释说明)和预测。

l        找出并收集与某项调查有关的信息。

l        在解释证据和得出结论时进行富有逻辑的创造性思维。

l        就各步骤和解释进行交流、汇报和思考。

 

2.2.4 学生对于科学概念的理解

学生将获得适合其年龄段和教育程度的重要知识,包括一些主要的科学概念。就此我们不想明确列出这些知识具体有哪些,但为了作些说明,具体概念如下:

l        人类和其它生物的特点、行为和需求。

l        生物的多样性和适应能力。

l        人口和生态系统。

l        材料知识以及它们是如何进行改变和被改变的。

l        运动和力。

l        能源和能源转换。

l        地球及其在宇宙中的位置。

l        地质变化。

 

2.2.5 学生的态度和倾向

学生将会有如下表现:

l        对于科学工作表现出好奇、兴趣和喜爱。

l        在调研过程中能尊重证据、实事求是。

l        愿意根据取得的证据改变观点。

l        对人和其它生物及其环境表现出一定的敏感性。

l        能认识到科学调查的价值及其局限。

l        表现出今后要学习科学和应用科学的意向。

l        与他人协同工作的能力。

 

3.0 项目评估的目的和过程:总则

 

对于一个全面开展的IBSE课程项目的特点,包括学习目标和学习材料完成的标志、教学活动及穿插其中的对学生学习科学知识的评估,这些在前文中已作了详细说明。我们本节要讨论的是在各实施阶段进行项目评估的不同目标。接着在第四和第五节中我们将总结出一些恰当的评估方法,以促进项目的实施,认识该项目所产生的影响。

 

3.1 项目评估的目的

就目的而言,在项目评估中存在着三个连续但又略有重合的阶段:

l        为制定项目所作的评估。

l        为确定某个项目一旦制定后,在不同环境中的实施程度(如对于当地环境的有效适应性)所作的评估。

l        对于项目在短期和长期产生的影响或效果所作的评估。

 

在该评估过程中,我们假设一个国家或管辖区域已经采纳或改编了一个目前已存在的项目,如La Main à la Pâte or NSRC 孩子们的科技”  (see Appendix C2)这一项目,或者它已制定了自己的项目。因此,评估的起点是一个已经认同的项目,而不是在于项目的制定,因而上述三种目的中的第一个不在我们的考虑范畴。我们的重点是放在第二和第三个目的上,即对于项目实施的评估和项目产生的影响和效果的评估。然而,值得注意的是,贯穿于项目评估三个目的之中的有关收集和应用相关信息的方法中,有好几种是极为相似的。

 

3.2 项目实施和评估的阶段

   为了弄清某项目所产生的影响和效果,必须有合理的证据来证明该项目正处于适当的实施进程之中,如就当地环境作了必要的调整使之本土化,但是仍保留了原项目的基本特征。尽管从项目的初始阶段至项目全面合理的实施阶段来看,项目的实施过程并不是一帆风顺的,但我们还是设置了这个进程中的几个阶段(见附录E)。

 

3.2.1 项目实施初始阶段的评估

   在这些初始阶段,项目评估的目的是确定所选定的IBSE项目正按预期的目标实施到何种程度(包括必要的项目调整)。这些阶段只是对项目的实施作形成性评估(见1.3.1)。评估中涉及的问题应讨论科学课的授课和课堂表现特点,也就是说,课堂上所实施的教与学与IBSE项目的意向有多少一致性。这些问题可归纳如下:教师和学生所从事的课堂活动与该项目中设置的活动是否一致?教师和学生所从事的课堂内容是否与项目设置的内容一致?课堂上的师生互动和学生之间的互动是否与所设想的相一致?课堂交流的特点是否与项目设想的相吻合?

 

3.2.2 进一步实施阶段的评估

    用项目实施初始阶段所获得的评估结果来对于项目产生的影响和效果下定论是不可取的。只有当项目更进一步地开展以后,才可以采用累积评估(见1.3.1),即就总体结果提出相关问题。例如:用IBSE项目以及它与其它传统项目相比照后的效果来评估学生在所有科学课课堂上的表现。随着项目逐步朝着设想的方向推进,评估目的发生连续变化(在附录E中的图中以箭头表示)。这种变化也同样可以在评估方法和具体措施方面有所体现,从项目实施初始阶段采用的接近措施(在课堂附近)变为后阶段使用的远侧措施(在外围设计)。当项目进展顺利时,比照手段就显得尤为重要。

3.2.3 评估过程所需的各类信息

项目评估涉及的问题、设计、方法和手段都应在总体上反映评估的目的,同时,还需要收集并分析有关教师的授课实践和学生学习效果的信息。具体如下:

l        教师是如何使用IBSE教材的。

l        教师的探索实践。

l        学生的探索经历。

l        学生应用探索过程的情况。

l        学生对于科学知识的理解,这可以通过学生在异常情况下对科学知识的应用而反映出来。

l        学生对于科学和科学学习的态度和倾向。

 

3.3 项目的实施和效果

重要的一点是通过调整评估活动,使之与评估目的相吻合,因而我们在此将提出一个与整套评估目标相一致的评估框架。

l        在项目实施的初级阶段,重点是要利用能推进项目实施的评估结果,因此在教室附近或直接在课堂上进行多种资料的采集。

l        当项目在所有被选课堂更为全面地展开,此时的重点应放在项目所产生的结果上,而资料的采集手段有可能离实际课堂活动更远一些,可以采取标准测试或评价的方法。

l        在项目实施的中级阶段,可能适合去探求项目实施的中期结果,比如教师授课实践的变化等。

 

3.4. 评估者和教师的活动

    在不同的项目实施阶段,要求评估者和教师所从事的活动也会因阶段而异。当项目进展顺利时,此时评估的目的是弄清项目会产生的影响,资料收集会涉及到很多(如果不是全部)正在实施该项目的课堂和教师。信息采集活动以及对评估结果的解释和使用都会发生变化,从开始的接近课堂过渡到综合评估所采用的对许多课堂进行大规模的评估活动,同时教师和评估者的活动也会出现相应的变化。

 

3.4.1 教师在评估过程中的任务

根据项目和需要收集的证据种类,教师在评估过程中的活动形式各异。在初级阶段,教师在项目评估中的活动包括以下内容:

l        正式和非正式地记录课堂活动。

l        利用相关信息改进IBSE项目在课堂的实施。

l        通过不断的观察和讨论对学生的观点、技能和态度作出评价。

l        利用学生在学习过程中反映出来的信息帮助他们取得进步。

l        帮助外来评估者了解课堂的实际情况。

l        对于学生口头或书面提出的有关正在实施的项目及其为什么要实施等问题作出相应的回答。

l        积极参与同评估人员的讨论。

 

值得一提的是,一般说来,好的授课方式会涉及到上述活动的大部分内容,同时在开展新的项目时,这些活动也是必不可少的。

ISBE项目的实施在许多课堂似乎进展更快,此时,尽管教师委员会成员可能会被召集起来对评估工作提出一些建议,但评估的设计、使用的手段、对评估结果的分析和汇报很大程度上成了外来评估人员的职责。除上述活动之外,任课教师还可能会被要求回答针对教师调查提出的一些问题、填写教师调查表,也许还会被要求管理实施由别人设计的针对学生科学课学习情况和态度的评价体系。有时,对学生的问卷调查和测试可能由校外的某个人来执行,以增加调查的可信度。教师也应该及时了解到累积评估的结果,以及由评估结果得出的针对课程和授课方式提出的改进建议。

 

3.4.2 评估者的任务

在项目实施的初级阶段,评估者和教师在IBSE项目实施过程中携手合作,制定出用于信息采集的评估步骤,教师可以利用这些信息来改进项目的实施。评估者同时还要在各课堂收集更多的信息。评估者和教师进行合作的任务如下:

l        设计评估问题。

l        选择或制定适当的观察手段和学生进步的评价体系。

l        选择或设计书面或口头问题,检测教师对于探索实践和IBSE项目目标的理解。

l        作好教学日志。

l        不断观察课堂互动和交流情况。

l        对采集的信息进行分析和解释。

l        根据评估结果就IBSE项目的实施提出改进建议。

l        组织召开研讨会,进一步激发人们对IBSE项目及其实施的思考和理解。

 

同时,评估者还希望进行观察,并对教师和学生进行单独访谈。这些要点将会在第四部分中作详细说明。

 

至于评估方法和手段,随着评估目的从原先衡量项目的实施程度向评价项目对学生和教师产生的影响方面倾斜,教师和评估者的任务体现了一种连续性。随着评估目的转向揭示IBSE项目所产生的影响和学生的学习效果,无论是就其本身的目标,还是同其它项目进行比较而言,外部评估人员在其中起着更为重要的作用。在与IBSE项目的设计者和参与项目实施的教师进行合作的过程中,评估者承担着以下任务:

l        根据信息需求和政策制定者、教育家、及其他对此感兴趣的团体所表达的愿望,设计出评估中涉及的问题。

l        设计评估过程,包括选择使用何种方法。

l        如果需要,还要制作评估的设计样本。

l        设计和/或改编现有的评估手段,包括对教师、管理者和学生的问卷调查表以及对学生的测试表。

l        分析资料。

l        用通俗易懂的语言书写评估结果报告。

l        与教师和项目负责人合作,就项目本身和项目实施过程提出改进意见。

 

以上要点将会在第五部分中作进一步说明。


 

4.0旨在改进项目实施的评估

本节概括了一个IBSE项目在实施初期所涉及的评估步骤。评估的目的是为该项目及其实施过程提供反馈信息。因此,我们所关心的是预期的课堂进程和体验的执行程度。

 

4.1 步骤概述

在项目实施初期,一方面,评估应贴近课堂,另一方面,评估必须切实可行。同时这样也有利于及时利用评估结果来改进项目的实施。评估可以按以下步骤进行:

l        确定评估时要处理的问题。

l        确定用于回答这些评估问题的资料。

l        根据手头资源选择资料收集的方法和手段。

l        进行资料收集。

l        进行资料分析。

l        进行课堂、学校、项目这些不同层面上的信息反馈。

 

    这些步骤并不相互隔裂,相反,它们是相互关联的。正如我们后面会看到的那样,对于一个步骤所作的决定会影响到其它步骤的实施。例如:如果没有进行计算机分析的资源,那么就没必要收集太多只有靠计算机来处理的资料。又如,大量录制录像而没有时间观看也是毫无意义的。因此在任何一项评估中,贯穿于这些步骤的各个思考过程同如何把这些想法付诸实践的各种决定是一种互动的关系。我们现在考虑的是如何使它们付诸形成性评估的实践,而不会考虑如下文6.1.2章节中所指出的那样,该项目将会给我们提供技术技能的问题。

 

4.1.1确定评估问题

有关项目、项目目标、资料、师资培训、实施进度等基本数据的先期收集是确定具体评估问题的先决条件。很有可能会出现这样的情况,所实施的是IBSE项目中的几个方面,而非一个完整的项目。评估时不仅应该关注项目预期目标的实施程度而且还要关注作为一个在本报告书中据国内IBSE定义所拟想的IBSE项目有无不足之处。

那么,评估目标就是要找出项目的实施内容、实施效果及其实施改进方法。评估问题可能如下:

l        预期的IBSE项目中有哪些方面正在被实施或未被实施?

l        教师和学校校长理解和相信IBSE目标的程度如何?

l        教师是否相信这些目标能在IBSE项目中实现?

l        教师能在多大程度上展示IBSE实施过程所要求的技能和知识?

l        学生的体验在多大程度上反映了IBSE项目的目标?

l        能力和背景各不相同的学生都能参与探究式学习活动吗?

 

所有参与者应该通过讨论就这些问题达成一致,尤其是项目协调人、教师、科学教育工作者和科学家,这样,期望通过评估来取得成效是具有实际意义的。

 

4.1.2 确定解决问题的数据

    在选择数据采集方法和手段之前,必须清楚需要哪些数据。针对每个问题都会有大量可供采集的数据;2.2节的列表指出了可以考虑进行收集的数据种类。在某个特定的评估活动中,选择就会牵涉到对评估问题精挑细选,还要明确 IBSE项目中预想要实施的方方面面。这同样也取决于评估的进度。例如,有关正进行中的一个教师培训项目的有效度问题,对于此类问题,需要收集的证据就是一段时间以来发生在课堂实践中的变化。可以把第二时间段内教师和/或学生的观点以及IBSE的实施情况跟第一时间段的相关情况作比较。

 

4.1.3 数据采集方法和手段的选择

理想的数据采集方法如下:

l        观察教师和学生的课堂活动,尤其是他们进行探究式活动时表现出的特征(详见附录F1)。

l        记录各堂课上关于科学的内容。

l        检查教师和学生拥有的资源情况。

l        记课堂交流日志。

l        检查教师日记。

l        对师生进行问卷调查。

l        记录教师的评估实践。

l        检查学生写作/绘图活动,包括学生笔记本和实验记录。

l        对教师和部分挑选出来的学生进行访谈(见附录F2)。

l        通过教师的观测和记录,记录下对学生进步的连续性评估。

 

在某个特定评估活动中所采用的具体手段必须依具体评估问题和所处的环境进行修改,但也不一定都要从头开始。从我们以前的工作中可以找到很多例子。该国际项目的一个主要目的就是要确保每一项评估都能从其它地区进行的评估中受益。附录F提供的实例指出了一些使用过的但修改一下就可以利用的数据收集方法(注意:这仅仅是实用案例收集的开端,这些实例会通过网站或其他途径提供给各项目参与国)。

 

4.1.4 数据采集

评估的设计和数据采集程序的细节取决于当地的具体情况,例如参与学校的数量、学校的位置以及交通的便捷程度。显然,可获得的人力资源和其他资源也会对某一特定环境下可能出现的情况产生影响。

如果只有少数学校参与项目,那么评估人员就有可能经常到学校拜访。在拜访期间,他们就可以进行观察,还能阅读文件和学生作业。如条件许可,当地评估人员或教师还可以对一些活动进行录像加以保存。另一方面,如果各学校位置分布较分散,那么问卷调查可能是一种主要而又切实可行的数据采集方式,同时还可结合一些对抽样学校的访问。如果有良好的通信条件,就可以进行电话访谈。在有条件的地区,课程录像带可以寄给评估人员或由教师自己审核。为了解学生的作业情况,可以要求教师布置具体的任务,并且将他们认为优秀、中等、较差的作业样本交给评估小组或项目协调员。

在资源严重短缺的地区,必须仔细考虑优先权的问题。在形成性评估中有一个很突出的例子,即在能力许可的范围内,尽可能多地选出一些学校,给予它们拜访优先权,在那里进行课堂观察,采访师生,收集教师日志和学生笔记本的样本。在拜访这些学校前或就在拜访期间,可以要求教师按照一组给定的但又不必过于拘泥的标题,记录下科学课的具体内容。

在研究IBSE实施情况的过程中,一个重要的问题是关于项目实施对教师的理解力、授课技能和教学理念所产生的影响。就形成性评估而言,可能收集这些证据的最佳途径就是访谈。制定访谈计划的指导建议可参见附录F2

 

4.1.5 数据分析和解释

无论是定性数据还是定量数据,都应该以合乎科学的合理方式进行分析,这样的分析可以反映所收集数据的结构,因而可以直接解决推动形成性评估的问题。首先应当检查数据采集手段的可靠性和有效性。对IBSE实施结果的分析应考虑学生、课堂(教师)、学校和学区各方因素(各级教育机构)。

数据分析的结果必须用表格或图表清楚地表示,并附以推论性的总结。其目的是展示优势,并精确地显示需要改进的地方。教师、项目负责人、本地评估人员讨论IBSE项目实施改进方法的基础就是有关何处需要改进的信息。

 

4.1.6 学校层面和项目层面的反馈

这是形成性评估最重要的部分,因为如果评估信息并不用于改进项目实施,那么评估就达不到形成性目的。当地评估组(见6.1.1)的一个重要作用就是确保提供反馈信息。反馈应当依据事实,而绝非主观臆测,但为了讨论如何实施的问题,也必须指出需要改进的地方。反馈应体现在许多层面,这样就可以优化评估的价值。

l        给教师的反馈:相对于项目的预期内容,他们在做什么/没做什么,对于预期的变化这又意味着什么。

l        给学校的反馈:该校IBSE的实施程度、各班级的差异,对于学校应该提供的支持这又反映了什么。

l        给项目负责人的反馈:正在实施的内容,以及需要提供的支持,比如追加资源和提供人员培训。

 

在这些层面上,关于其他人在类似情况下所完成工作的信息是非常有益的。因此,在IBSE实施的初期,应当准备一些对班级、学校和国家的个案研究资料,以作为评估内容的一部分。如果设备和资源条件许可的话,这些资料可以制成录象或录制在光盘上。

 


 

5. IBSE项目对师生所产生效果的评估

 

本节讨论的是有关IBSE项目能否对师生产生预期效果问题的评估。当IBSE项目在某个国家的很多学校实施时,就有必要回答这样的问题。我们首先要考虑构想、设计和效果评估报告中的各步骤,然后再考虑IBSE效果的评估测试和评估任务的设置。尽管对学生效果的评估不能作为项目成效的唯一证据,但它必定是终结性评估中所要收集的重要数据。

 

5.1开发项目效果评估的步骤

当一个IBSE项目在很多学校进展顺利时,应通过终结性评估设计一些问题,来了解该项目对学生所产生的影响。正如前文指出的那样,在项目的实施还未取得顺利进展之前,项目产生的效果不可能有效体现项目本身的成效。因此,该阶段的评估目标就是改进项目实施情况。但是,项目实施状况的稳定并不意味着缺乏差异,此时仍有必要收集有关课堂进程的资料,这样就可以把不同的学习效果和不同的学习体验联系起来。因此,在确定教学实践与学生学习效果[14]时,定性和定量的方法同时需要。我们再次提请大家注意,当地评估组可以通过本项目所建议的支持方式来获得技术援助(见6.1.2节)。

终结性评估的程序与形成性评估程序相同(见4.1节),但问题及相应的方法却不同。下面我们就来看一下这些步骤在终结性评估中是如何操作的。

 

5.1.1终结性评估中的问题

IBSE项目的终结性评估可用以解决不同的问题。一是要确定项目是否能够以及能够在何种程度上取得项目所预期的结果。另一个问题是,与其它科学教育项目相比,IBSE项目中学生学习效果是否与之相同或不同(较好或较差)。

提出这些问题的动机通常是为了证明引进IBSE项目这一决定的正确性和合理性。这可能是某位学校校长要向学生家长、学校主管领导和当地政客证明学校政策的英明;也有可能是一些国家或地区的教育政策主管人士希望说服选民支持科学教育方面的改革;或者是项目开发人员需要一些证据来说服更多的教师与校长,让他们相信为项目实施所作的努力是值得的。评估问题应由评估者与那些需要问题答案的人之间进行磋商,这样各方才能就评估能否提供证据以及由此可能得出的结论达成一致。

 

5.1.2 数据的确定

终结性评估关注的重点是学生在何种程度上掌握了在2.12.2.32.2.5节中指出的知识。选定的项目取决于评估中提出的问题。当评估重点是围绕IBSE项目与另一个科学教育项目时,或与引进IBSE之前的“传统”教学法相比较时,就会出现好几个关于各类学习效果的问题,例如,评估是否会只针对预期结果中的核心部分,还是会关注IBSE项目或另一替代项目的额外结果。在此情况下,我们建议应对每个项目的所有目标都进行评估。

即使是从预期目标是否实现的角度来提出问题时,应在主观判断、现有或预期表现的基础上,根据预期内容来评判结果。因此,其中会通过对比来对数据进行解释,所以针对所有结果的范围,会出现若干相同的问题。

在一个国际性评估项目中,在评估不同国别学生的学习效果时,会采用一些共同的衡量法(标记变量),这能带来极大的好处。该策略的目的并非对国家进行比较,而是要比较IBSE在不同条件下取得的效果。 这会产生有价值的资料,帮助人们提高对于影响实施情况好坏的环境的认识。

除了学生学习效果的衡量方法之外,还要收集课堂体验与互动方面的数据。这不必像在形成性评估中那样需要大范围的数据收集,而只要注重一些“主要变量”就可以了(见4.1.1节)。

教师在IBSE项目实施中起主要作用。因此,在研究一个IBSE项目实施的过程中,重要的是要找出教师因对IBSE理解的变化和教学理念的变化而带来的教学实践的变化。附录G3提供了一些对教师所产生的效果进行评估的方法。

 

5.1.3数据采集方法的选择

有关主要变量的证据收集可能涉及到4.1.3节中列出的一些数据采集方法,以下是对这些方法的重要补充:

l        就教学政策与实践对教师与管理者进行调查。

l        就对IBSE的理解和该项目在实践中的要求对老师进行问卷调查。

l        就课堂活动对学生进行问卷调查。

l        为评估学生对于科学原理和探究式学习技能的理解与运用,进行测试和任务布置。

l        就学生的学习态度进行调查。

 

评估学生的认知与态度效果还有其它可以采用的方法:

l        已经实施到位的全国标准测试。

l        传统的书面测试(如多项选择)(附录G1)。

l        融于课堂材料之中的测试或任务(附录G1)。

l        实际的测试或任务。

l        测试或任务的扩展形式。

l        概念映射。

l        关于态度的问卷调查(附录G2)。

l        收集作业明细表。

l        基于计算机的测试。

 

显然,最简单的方法是使用目前许多国家在小学最后阶段所采用的测试方法。在IBSE项目与传统项目进行比较时,它可能也是最具说服力的方法。它显示出探究式学习方法在何种程度上应用到了传统的科学学习之中。然而,这还不足以回答报告第二部分中所提出的有关所有IBSE学习目标是否正在一一实现的问题。要做到这一点,需要采取一些方法,为学生提供机会来解决问题、利用证据、诠释数据、理性思考和应用知识(详见附录G1)。尽管有人会提出,合理的做法应该是看看没有参与IBSE项目的学生能否取得与参与IBSE项目的学生相同的结果,然而,让学生面对他们从没学过的技能与测试,可能有人会从道德的角度提出反对意见。

 

5.1.4数据收集:设计方案

如果IBSE项目要与其它项目作比较,对照组将如何产生呢?解决这个问题的经典做法就是把潜在的学生群体(或教室、或学校,可视具体情况而定)任意分配给IBSE项目或其它替代项目。尽管这在某些环境下操作起来可能存在一些难度,但从方法论的角度看它仍不失为是最保险的办法,而且人们已经找到一些创造性的方法来完成此类随机实验。

另一种方法是从现有参与IBSE项目的课堂和参与“传统”项目的课堂中选出对照组。然而,这又会带来一系列的问题,这些问题的出现都是由于除了课程差异之外并没有把对照组之间存在的其它差异考虑在内。例如,教师可能主动提出用他们的课堂作对比实验,这样就有可能给评估带来一定的偏见,因为在任何项目的实施过程中,自愿者与非自愿者可能会有所不同。同时,当学生的特点(以前的科学成绩、家庭收入与社会地位)与教师的特点(专业科学知识掌握的程度、职业发展程度与类别、参与项目的时间)有可能相互关联时,在IBSE课堂与非IBSE课堂之间对学生与教师变量进行配比可能极为困难。要解释这些差异得采用复杂的换算程序。

那么对比样本该如何选择呢?如果对照项目的实施范围较广,那么受费用与时间的限制,评估很可能不得不局限于这些课堂样本之中。样本越少,使用样本课堂而非所有课堂而获得的资料中的错误率就越高。一些作为样本的课堂并没有提供反馈,或提供的是不完整的资料,这会带来进一步的问题,因为这些课堂可能与那些提供完整反馈信息的课堂有所不同。如果抽样对象对评估手段有误解,或者问题回答得不够准确,都会带来误差。

无论使用什么方法,那些参与实施替代项目的人员很可能会产生抵触情绪,因为他们认为这种对比评估法没多大必要,还可能会觉得这是一项繁重且烦人的工作。

想要根据其它科学教育项目的比照效能得出有效的结论,如IBSE项目与“传统”项目对照,就必须解决在评估方案、评估方法和数据分析方面的出现的问题。最终的报告必须清楚地阐明这些问题的解决方法及所取得的成功。

 

5.1.5数据分析

无论是定性还是定量的数据都应通过合乎科学的合理方式进行分析,这样,分析结果就能反映所收集数据的结构,并直接解决推动评估进程的问题。在采用这些数据之前,应该分析衡量标准的可靠性与有效性。在评估IBSE对学生学习效果产生的影响时,必须考虑到教育系统的各级组织机构,即学生隶属于班级,班级隶属于学校,学校隶属于学区。

在进行纵向数据收集时,数据分析时应考虑重复测量之间时间差异带来的影响(即有些差异可能是因为时间的推移而引起的)。在评估IBSE的效果时,当地环境以及学生、教师、学校间先前存在的差异也应列入考虑范围。最后,在条件许可的地区,可采用多种数据源,以多角度地阐释IBSE项目带来的效果。

这些类分析也可为针对IBSE项目的研究课题提供资料(见附录D)。将评估与适当的研究课题结合起来,对两者来说往往是一种有益而且是比较经济的方法。

 

5.1.6评估结果的交流与报告

人们都普遍关注任何教育改革所取得的结果。学生家长、教师和公众像那些评估项目的发起者和资助方一样,都急于知道IBSE项目带来的结果。向这些群体汇报是当地评估组(LET)的一项重要任务。评估结果报告会有几个不同的受众。现在已有一些渠道可以向科学教育和研究部门作汇报,但仍需寻找适当的途径将报告内容传达给其它受众。以下三种书面报告是必需的:完整说明方法、分析和结果的报告;约20页的摘要;以及只用一两页来说明主要结果及其含义的简短报告。最后两种文件类型可能需要针对不同的目标读者群采用不同的书写格式,比如针对教师、公众及地方和国家的决策者。为达到更为广泛的宣传效果,还应借助媒体的帮助。

然而,该国际项目旨在将任何一项评估置于其它IBSE评估活动的环境之中,以提高该评估项目的价值。除了对项目实施国具有特殊的价值之外,评估结果还将有助于人们更好地理解IBSE项目在不同条件下所产生的结果。科学教育随着教学环境的变化和对教学认识的变化而不断发展,综述报告把在不同国家获得的结果综合起来,这将有助于拓展各参与国的视野。

 

5.2 开发衡量IBSE对学生产生影响的测试及任务

5.1.2节中我们提到,在设计终结性评估时必须要解决这样一个问题,即用什么方法来衡量对学生产生的效果。无论是采用现有的测试方法,还是采用为了评估某个IBSE项目结果而设计的测试,两者都是可行的。本节提供了设置有关IBSE效果衡量方法的指导性建议,这些方法可以单独使用,也可以与现有正在使用的测试方法结合起来使用。

设置用于评估学生学习效果的测试和任务分为几个阶段。每个测试项目或任务(简称为“题目”)都应与特定的结果明确相关,因此题目设置应以结果为起点。设置这些题目的目的是要给学生展现一个要求他们运用IBSE效果所指出的特定过程或概念的环境(如2.2.32.2.4节中所述的情形)。很可能有不同类型的题目恰好符合这个要求,因此确定这些题目是设置过程的第一个阶段。评估每个结果需要经过如下不同阶段:

1. 确定题目类型,要求学生使用结果中所描述的步骤或运用结果中所描述的概念理解。

2. 选择适合于结果和学生经历的内容或主题。

3. 拟定测试题目和评分方案(草案),并加以审核和修改。

4. 在目标组中选取一小部分学生对修改后的测试题目与评分方案进行试验,然后再次修改。

5. 对测试题目和评分方案进行试点考察。

6. 进一步复审测试题目与评分方案。

7. 如果需要(并且可行)的话可重复第5步和第6步。

 

5.2.1确定测试题目的类型

测试题目的类型是根据展现给学生的内容和要求学生所做出的反应这两个方面来定义的。例如

过程:确定与进行调查相关的信息。

测试题目体现的内容:一个可以进行调查的命题。

对学生的要求:指出进行调查所需的一切。

或是:从给出的其它选项中选出进行调查的最佳方案,并陈述选择理由。

 

对于概念的理解,例如:

概念范畴:能量转换。

测试项目体现的内容:描述涉及这一概念的某个情景。

对学生的要求是:预测将要发生的事或解释所描述的事件。

或是:从给出的预测或解释中做出选择并陈述作此选择的理由。

 

对于相同的步骤和概念还有其它的测试题目类型。既然这些测试题共同关注的是作为IBSE目标的过程和概念,它们应该广泛适用于各个国家。因此,可以为不同国家的评估人员提供一份类别表,如果需要的话他们可以对其进行调整,但不必再从头开始设置测试题目。

 

5.2.2选择内容

应对测试题目的内容或主题进行选择,使其贴近生活但又得是非教学环境(如果是的话学生可能会凭记忆回答题目)。例如,对于上文引用的过程,命题可能是“大球落地时间比小球要长”。学生可能熟悉不同大小的球,但却不太可能做过这方面的调查。对于与能量转换相关的概念,某个测试题目可以给出三幅图,分别是一个人将一个沉重的滚筒拉上三个有着不同倾斜度的厚板。要求学生说出哪张图中的人用的力最少,或者是否这三种情况没什么不同,并要求他们陈述选择的理由(见附录G1)。

 

5.2.3拟定测试题目和评分方案

在拟定测试题目时要决定题目以何种形式呈现。尽管为达到某些目的,目前正在开发计算机测试项目,但在很多国家要想同时测试许多学生,这样的机器测试是不可取的。因此,我们这里考虑的是更为传统的测试方法,即学生读完题后在试卷上答题,即便如此,他们还可能会开展一些实验活动。

尽可能减少测试题的阅读量相当重要,因为所需的阅读技巧可能阻碍我们达到测试目的。另一方面,为了在测试题目中呈现一个真实的场景,有必要进行一些描述。图画对笔试题目有一定的帮助,但有时可能会不经意地透露一些线索。此外,还得决定测试形式:采用多项选择题,简答题还是论述题。多项选择题的阅读量往往较大,而其它测试形式对写作有一定的要求,当然还要求别人能读懂学生所写的东西。选取一小部分学生做实地考察也非常重要,这可以减少学生交流测试题目内容所带来的问题。然而,在到达那个阶段之前,测试题目应先由一组测试所面向的那个年龄层学生的老师进行仔细评审。

拟定测试题目的一个重要部分就是准备评分方案。在用来评估IBSE成果的各种测试题目中,往往会出现不止一个可接受的答案,而且,这些答案也有可能存在着不同程度的“正确性” 。不管怎么说,如何来给那些不完全正确或是回答不完整的答案评分,纯属靠主观判断。在一个构答反应类的测试题目中,有必要向学生说明要求什么类型的答案。因此,比如说,如果要给一个对调查的描述进行打分,那么在问题中就必须包括类似这样的提示:“务必指出你要使用的东西,你要用它们做什么,以及你是如何来选定答案的”。

 

5.2.4选取一小部分学生作为试验样本

这个阶段是在一些班级中选出一些学生做试验,而非对整个测试进行全面试点。规模小就意味着可以观察学生回答问题,随后就可以在他们答完问题后立刻与他们交谈,了解他们的想法,他们对要求的理解以及他们是如何选定答案的。这种讨论将会反映学生的回答是否与预期的结果相吻合,或者他们是否使用了回忆、猜测或是测试题目无意间透露的线索。有可能还会作些改动,以确保某个测试题能够评估预期的结果,否则该测试题目可能就得删掉。

 

5.2.5 测试题目与评分方案的试点考察

把多个测试题目放到一起进行更大规模的试点考察,这种做法对基于多个班级的可行性研究是非常有必要的。这些题目是否适合这个年龄层的学生?实际测试所化时间与预期的时间相同吗?学生在理解要做什么时会遇到什么困难(尤其是如果他们习惯了另一种测试形式的话)?这些题目可以进行准确评分吗?类似这样的问题必须在测试用于一些学校的终结性评估测试之前就得到回答。

 

5.2.6测试题与评分方案的修正

如果上述问题的答案不尽如人意,那就需要作进一步的修改。如果需要修改的地方较多,那就应该进行重复试验。在任何情况下如果作了修改,都有必要核查测试题目是否仍能有效反映有待评估的结果。对于评分标准的可靠性和其它技术层面的种种担忧极易限制测试范围,从而使得可获取的有关学生通过IBSE能学到什么知识的信息逐步减少。测试题目是否贴切恰当,最后由那些学识渊博的评论家根据教育学理念做出评判。

附录G1提供了评估IBSE某些结果的测试题范例。

 

6.0 IBSE国际评估进程的组织与执行机制

 

在这份报告前面章节的基础上,现就IBSE项目国际评估进程和信息传播提议下列机制。

 

6.1实施本地评估的建议机制

 

6.1.1 评估进程所包括的委员会/小组

国际科学院联合组织(IAP)提议设立下面的组织图表中所示的委员会和小组。

国际监督委员会(IOCIAP工作组将确定有意供职于此的四至五人作为成员。选出IOC的主席,成员资格将在两到三年轮换一次。

IOC将对国际评估的整体运转负责,并在质量保证上起到重要作用。

国际评估小组(IETIOC将起草一份愿意服务于特别国际评估小组的IBSE评定与研究上的国际专家名单。

每次评估都将有一个新的IET。每个IET包括三人,均要适合该国及评估项目类型。

本地评估小组(LET):请求对其IBSE项目进行国际评估的机构(如国家科学院或教育部)将在机构外提名一个本地评估小组。

本地评估小组应包括四到八位在评估与实施小学科学教育方面的专业人士。

 

组织结构图

申请机构

国际监督委员会 (IOC)

IAP工作组指定四至五名成员。主席由选举产生。两到三年轮换一次成员资格。

 

 

 

 

 

国际评估小组 (IET)

IOCIBSE专家名单中选出三名成员,均适合特定评定项目与国家。

 

6.1.2评估项目的开发、审查与验证过程

负责本地评估项目的机构或其它团体(如国家科学院或教育部)将向国际监督委员会申请审查。提请审查的信息将使用国际监督委员会提供的申请表格指导提交,信息包括:

l      关于将被评估的本地教育状况和IBSE实施历史情况的概述

l      实施的项目或计划细节,包括年级/年龄层次以及评估目标

l      评估活动的建议方案(见本报告的第三、四、五部分附录E

l      提名的本地评估小组(见6.1.1)及其挑选细节

l      评估结果的预期用途

 

在提交申请之前,申请机构应向IOC主席征求关于上述信息的意见。在这个阶段,主席也将提供有关评估过程标准的信息。这些信息将根据申请机构通过评估过程所力求确定和完成的目标而有所异同。

一旦申请被IOC审查并接受,该委员会将针对这个评估项目选出适当的国际评估小组 (IET)成员。

国际评估小组 (IET)将初步访问申请机构所在的国家,与本地评估小组 (LET)讨论项目评估方法的开发。这项工作应该需要一个星期的时间,然后提出一份双方同意的评估方法的概要报告,由国际评估小组 (IET)递交申请机构。

然后LET将根据协议的方法执行评估计划。一个或多个IET成员可在这个过程的战略时刻(通过网络、电话或当面)提供建议。

国际评估小组 (IET)将再次用一周的时间访问该国,与本地评估小组 (LET)一起审查和讨论评估计划的结果。在IOC提供国际确认之前,本地评估小组 (LET)提交的结果与结论将受到IET严格的审核。

经确认的评估报告将通过IOC提供给申请机构,该报告将同时保留书面和电子版副本。

申请机构拥有该报告所有权,并保留独立出版的权利。

IOC保留出版该报告和其它国家类似报告的合集的权利。该报告不会被用于对不同国家的IBSE项目质量进行分级或比较,也不会被用于老师或学生个人比较。

 

6.1.3 经费责任

承担这项任务的国际科学院联合组织或其它团体将负责承担与IOC工作的相关费用。这将包括工作人员的工资,他们花费大量时间组织本文所述的受IOC监督的活动。

申请机构将负责与本地评估小组 (LET)相关的所有费用,包括本地评估小组 (LET)的开支。

提请对其项目进行评估的机构或团体将主要负责承担IET两次访问产生的费用,这通常包括该小组成员的经济舱机票和访问期间的花费(酒店、用餐、交通等)。国际评估小组 (IET)的成员可以接受有关人员和机构允许的酬谢。

如果国际评估小组 (IET)的一个或多个成员应申请机构的要求在评估过程中另作旅行以帮助LET,那么另外产生的费用应由申请机构支付。

 

6.2在各国家科学院主办的地区和国际会议上分发《IAP工作组报告》

本报告内容将首先于200692526日在智利圣地亚哥IAP工作组主办的一个会议上公布。预计93个相关的国家科学院中将约有50个机构派代表参加这个会议。会议特别针对那些很可能对评估IAP工作组创立的IBSE项目评估程序感兴趣的国家。报告的打印和电子版本将在会前提供给与会代表。

报告里的资料也将在200612月埃及亚历山大举行的IAP大会会议上和圣地亚哥会议后提议进行的的IAP美洲、亚洲和大洋州地区会议上分发。

2006年十月中旬将有一个欧盟IBSE会议在斯德哥尔摩举行。IAP工作组的一名成员将参加该会议,他还将在会议上发布《IAP工作组IBSE报告》的相关资料。

 

 7.0 建议

7.1与本报告相关的建议

这份报告提出了关于在中学教育之前的科学教育中进行改革的争论。这些改革能让学生们通过探究式活动进行学习。实现探究式科学教育的价值体现在对学生科学素养与理解力、技能与态度的培养上,这些是公民在日新月异的当今世界所必需的,学习必须持续终身。这份报告阐明了IBSE在实践中对学生、老师和学校的意义,指出实施该项目要求巨大变革。项目所宣称的学生成果、老师的理解以及科学教育经历的质量的改善证明项目所需的努力与投资是合理的,这一点很重要。这里提出的国际项目正是为这种努力提供援助的。因此,工作组建议:

l      实施IBSE项目的国家应该对项目实施程度与效果进行评估,并为此目的成立本地评估小组(LET)。

l      应组建IOC,负责向有此要求的国家提供实施评估的支持。

l      国际评估小组(LET)与本地评估小组(LET)一起作业,以支持评估工作,并提高地方小组的作业能力。

l      在不同国家实施的程序与评估调查结果的报告向他国开放,并加以综合以提高对IBSE及其在不同环境下实施的总体认识。

 

工作组进一步建议IOC应:

l      撰写有关IBSE及其评估的研究文献的纲要。

l      当获取足够数据时,举行一次国际研讨会讨论来自不同国家的报告的综合成果。

l      设立一个研究生奖学金计划,向那些缺乏评估与研究专业知识的国家提供智力支援

 

7.2IAP其他工作的建议

作为这份报告主题的国际项目特别明确强调对于已发展的IBSE项目的实施的评估。然而,人们认识到许多国家都愿意在项目发展的早期阶段接受帮助。而且,特别是在项目与效果研究的某些方面,国际合作与专业技能的共享显得特别宝贵。因此,工作组确定了这项评估计划之外与IBSE有关的下列工作,建议IAP予以考虑:

l        为参与国在设计和开发或修改IBSE项目提供帮助的计划。

l        为参与国创建指导原则,目的是让他们能够创建材料帮助教师在执行IBSE项目时测评他们学生并评估自己的教学效果并把它们融入到IBSE项目中。

l        促进旨在增加对IBSE的认识和理解研究项目,包括探究式科学学习的特性以及如何在不同的背景下最佳实施IBSE项目。

 

 


 

附录A

IAP 工作组成员和观察员的简介

Dr. Bruce Alberts是受人尊敬的生物化学家,致力于自然科学和数学教育。在结束了两届每届任期为6年的国家自然科学学院(NAS)院长的任职后,现在旧金山的加利福利亚大学生物化学及生物物理学系任职。Alberts博士在国家自然科学协会任职期间,曾促使建立具有划时代意义的国家自然科学教育标准,目前该标准已在全国的学校教育制度中实施。Alberts博士也是著名的教科书,《细胞的分子生物学》一书的原作者之一,目前已出版第四版。从2000年至2009年,他作为国际学术机构委员会(Inter Academy Council)联合主席,一个位于阿姆斯特丹的新建机构,由15个国家的自然科学协会主席管理,旨在为世界提供科学的建议。由于Alberts博士在生物化学和分子生物学领域的成就被广泛认可,他获得过许多荣誉和奖项,包括14个荣誉学位,大英帝国指挥官勋章,现为十多个非盈利机构的咨询董事。他是哈佛大学的监督员,纽约卡耐基集团和戈登和贝蒂摩尔基金的理事,也是美国细胞生物协会的会长。

 

Dr. Jorge Allende 在理解蛋白质合成方面做出了关键性的贡献,他描述了延长因素及哺乳动物氨基酸转换核糖核酸合成酶。他同时也是研究两栖动物卵细胞成熟时荷尔蒙的感应机制的先驱者。近几年,Allende博士一直在致力于两种普遍存在的蛋白质致活酶,Ck1Ck2的结构、功能和规律。这两种酶与关键细胞的蛋白质磷酸化作用有关。除了在科学研究方面的卓越贡献外,Allende博士也是一位国内和国际的领导者,致力于拉丁美洲自然科学教育及科学联系网建立。他是智利自然科学学院的一员和前主席,第三世界自然科学学院的副主席,美国自然科学学院和美国医药协会的外国助手。他也是智力自然科学学院和教育部的ECBI项目的负责人,自然科学学院国际美国网和国际学院专家小组的自然教育项目的协调者。他的荣誉包括1992年智利国家科学奖,阿根廷Buenos Aires 大学Doctor Honoris Causa, 及由巴西总统颁发的科学价值大十字奖。

 

Dr. Philip Bell 是华盛顿大学教育学院的助理教授,同时他还是教育研究生计划的认知学习的行政领导以及教务委员会的主席。他的研究领域包括:自然科学教育;学习环境的设计和学习;科学和历史的学习技巧、理论和指导;儿童认知论和想象训练;开发的普遍方法影响;基于计划的教育研究方法。Dr. Bell目前是科学教育的NRC部门成员。他还是包括美国教育研究协会(AERA)、全美教育科学研究学会(NARST)、科学的社会研究协会(4S)、INTERNET研究者协会(AIR)、认知科学社区(CSS)在内的很多教育协会成员。他为许多顾问委员会服务,包括国际学习科学社区(ISLS)的临时理事委员会、科学的信息技术(ITS)中心。Dr. Bell在加州大学伯克利分校获得了人类认知与发展的教育学博士学位。

 

Professor Julie Campbell 是澳大利亚国家健康与医药发展委员会的高级首席研究员,昆士兰大学血管生物学研究中心主任,威斯利医院的威斯利研究院主任。在过去的30年中她的主要研究方向是正常动脉壁以及处于患病状态比如动脉硬化状态下的血管平滑肌的细胞生物学。她近一段时间进行从自体骨髓原细胞进行血管、膀胱、子宫在腹腔移植生长的研究。1995年她获得了澳大利亚威尔康奖章,2000年被选入澳大利亚科学院。2003年获得百年世纪勋章,2004年被州政府授予“昆士兰名人”的称号。在2006年被澳大利亚政府授予公共部门澳洲勋章。同时在2006年,作为澳大利亚科学院的教育和公共意识委员会秘书长,她主要负责检查和督促在小学(主要关联:科学与认知相结合)和中学(做中科学)进行的科学教育计划。

 

Professor Ernst W. Hamburger 19602003年退休,一直是圣保罗大学(USP)实验物理学系主任。他进行了实验核物理学、核结构与反应机制方面的研究;在1969-1975年负责在中学进行物理课程发展项目1972-1976年负责物理教学影片制作; 1973年在USP的教育学院和物理研究所之间建立了面向物理教育的研究生协作计划。作为Estação Ciência——USP科技中心的主任,在1994年到2003年间,通过科技展览、录像、剧院、互联网、教育性和社区项目推动了科技教育的活动。自1967年以来一直是巴西自然科学学院成员,自2001年以来担任巴西特别是圣保罗州科学教育促进计划的协调人。Sociedade Brasileira para o Progresso da Ciência and of  Sociedade Brasileira de Física的前主任。由于在普及科学方面的贡献,他获得了如下奖励:1994年受到巴西国家研究委员会的表彰;2003年由于普及科学获得拉丁美洲网络的表彰;2000年被UNESCO授予Kalinga奖。2005年成为巴西政府Ordem Nacional do Mérito Científico成员。

 

Dr. Wynne Harlen是布里斯托尔大学的教育学访问教授。Dr. Harlen拥有一些高级的头衔,如科学教育学的“悉尼琼斯”教授、利物浦大学教育学系主任、苏格兰教育研究委员会主任。她目前处于半退休状态,拥有布里斯托尔大学的访问教授的荣誉头衔并且承担一些顾问工作。她1995年成为美国探索博物馆的OSHER会员,她是面向初级科学特别是评估方面的顾问并定期访问信息咨询协会。在1999年到2002年,Do.Harlen是由位于马萨诸塞州剑桥市TERCNSF资助的一个研究项目的顾问和主任之一。由于教育方面的贡献,在1992年被女皇授予OBE勋章,并且因为对科学教育所作出的杰出工作而在2001年被科学教育委员会(ASE)授予特别奖。在1999年到2004年,她为ASE编辑了《儿童科学回顾》,她同时还在3种国际期刊的编辑委员会供职。她的出版物包括25份研究报告,超过150篇期刊作品,在科学教育和评估方面分别是3526本书的合作者。她毕业于牛津大学并在布里斯托尔大学获得博士学位和物理学荣誉学位。

 

Dr. Glenn Hultman Linköping大学教育学实践研究生院的负责人和教育科学系的教育学实践教授。教育学实践是一个多学科领域,通过把不同的学科进行整合教学,试图就学校和教学的社会角色得到一个新的视角。他的研究关注于学校、公共组织和小型商业公司的知识创新和学习、领导力、教师的工作和动态改变过程。其他领域包括评估、领导力培训、研究和实践的相互影响、科学方法的研究和发展之间的相互作用(比如情景面试和观察面试)。他目前的研究项目是学校的知识创新与发展——研究教师的交互式工作环境;儿童、青年、成人和教师的角色;学习和理解能力——在K-12学校研究自然科学方面教学和小学生学习的形式和内容(瑞典STC的一项研究)。他在Linköping大学获得博士学位。

 

Dr. David Klahr 是卡耐基梅隆大学的心理学教授。在其职业生涯中Dr.Klahr一直关注于对在各种领域如投票行为、学院入学、消费者的选择、同伴互评、解决问题和科学推理方面发生的复杂的认知过程进行分析。Dr.Klahr的最新研究方向是支持儿童进行理解具有潜在的科学思维的基本原则的思考过程。这项工作包括对学前儿童的基本研究和更多的教室应用研究以了解儿童如何学习实验科学。他已经在匹兹堡地区大量的学校进行了工作,他把焦点集中在儿童学习如何设计和解释简单的实验的能力。他最近为两个国家研究委员会工作,其中一个出版了《在教育中实施随机领域试验,在联邦代理机构中加强同伴互评以支持教育研究,推动教育中的科学研究》。他在卡耐基梅隆大学获得组织和社会行为博士学位。

 

Dr. Jean Matricon 1957毕业于巴黎大学物理和化学系并在1966年获得理论固态物理学(超导)博士学位。在伯克利大学做完博士后研究后作为主力教授进入巴黎第七大学并且在1970年开始成为专职物理学教授,直到1998年退休。在这段时间内,他主要进行物理学教学和进行在固态物理学和生物物理学的不同专题研究。他还参与了很多与科学有关的活动,比如写书,担任科技展览的科学顾问等等。自从退休后,他参加了动手做(la Main à la Pâte)——法国版的“Hands On”——把更多的精力放在向儿童进行科学教育上。

 

Dr. Jean Moon 是美国国家学院的科学教育董事会主任和高级项目官员。她的职责是通过董事会的工作对国家研究理事会(NRC)对正式和非正式环境下,从儿童早期到成年的科学教育的政策、研究和知识争端,进行领导。她和其他的教育中心的NRC理事会和委员会一起进行关于政策、教育、研究和从业者协会进行研究。除了在学院的职位之外,Dr. Moon首先是ExxonMobil基金会的管理者和教育顾问,他检查基金会的预科学院(pre-college)的发展和高等教育部的工作。在2001年受瑞典乌普萨拉大学之邀,作为住校学者为本科生科学课程进行交流技巧培训。在瑞典期间,她在斯德哥尔摩与教育部进行教师教育和评估。Dr. Moon目前的兴趣是关于科学、科学教育和公共政策的交叉研究。Moon在威斯康星-密尔沃基大学获得博士学位,她的重点是研究城市设施内部的学习与发展以及教育。

 

Dr. Jayashree Ramadas 在位于印度摩拜的Tata基础研究院的Homi Bhabha科学教育中心工作。她对正式和非正式的教育计划、教室观察和调查研究进行累计性和格式性评估。她的博士论文研究学生的替代概念现象,在当时这还没有在文献中得道很好的梳理。后来她在位于Michael Shayer的利兹的切尔西大学与Rosalind Driver、在MIT媒体实验室学习和认知论小组与Seymour Papert进行博士后研究。她在众多不同领域对学生的概念进行了研究,如光、运动、伽利略的相对论、人体、植物和生物以及学校科学中实验的用处。她目前的研究是科学的可视化思考。她进行认知学、儿童绘画和可视化思考的研究生教学。她曾经在马哈拉施特拉邦乡下、孟买市政机关进行教育项目研究,在英国利兹、美国马萨诸塞的波士顿以及新泽西的纽约进行城市学校间进行科学研究。她在位于坎普尔的印度技术学院获得了物理学硕士学位,在普纳大学获得科学教育博士学位。

 

Ms. Senta Raizen WestEd的国家科学教育促进中心主任。她领导了美国教育部发起的在初级和中级水平进行科学教育改良的研究活动,并得到了一系列的成果。她领导了一系列的调查工作,包括评估由几个州联邦发起的为科学和数学教师提供继续教育和职业提升的计划。她目前的工作包括开发一个新的框架和相应的测试规范来引导国家教育计划评估委员会(NAEP)在2009及以后进行科学评估管理。她已经出版或者编辑了众多数量的关于科学和技术教育的书籍和文章。她最新的作品包括:《综合教师归纳:早期职业生涯学习制度:提高自然科学和数学的项目质量》;《 大胆的冒险,美国数学和自然科学创新案例研究系列丛书-3卷》。她是美国高级科学委员会的成员和美国教育研究委员会的成员。

 

Dr. Patricia Rowell 是加拿大阿尔伯达大学的名誉教授。她的研究包括在许多背景下为学校自然科学教学个案研究。她在1984年启动了加拿大科学委员会的国家科学教育研究的个案研究,并且最近刚刚结束了在阿尔伯达省的初级科学教育的持续研究。她参与了在博斯瓦纳、纳米比亚、南非、澳大利亚和中国进行的小学科学教学和课程发展的国际项目。她目前的研究兴趣是小学科学教室教授和学习科学的松散现状与科技中心的学校论文计划。从获得学位开始她就是阿尔伯达大学数学、科学和技术教育中心的活跃成员,为中心出版的提供给小学教师使用的出版物做出了贡献。在联邦政府资助下,她整理或者合著了一系列面向小学的革新思潮。

 

Dr. Richard Shavelson1995-2000年斯坦福大学教育学院的“Margaret Jacks”教授和前主任。他还是斯坦福大学伍德环境学院的高级成员和心理学教授。作为人类行为研究的领先专家,Dr. Shavelson创新性的开展在零引力和月球引力状态下、军事任务行为、科学研究中人类行为研究。他关于普遍性理论的研究工作——一种关于行为测定的可靠性的统计学理论,被广泛应用在现代人类行为测定中。Dr. Shavelson目前的工作是研究基于质询的科学指导研究及其对学生的知识结构和行为的影响。他的其他工作还有在国家教育计划评估中进行高等教育的鉴定和义务性研究以及测量学生的科学行为的新标准。在加入斯坦福前,他是加州大学Santa Barbara分校的教育学研究生院院长和应用统计学教授。他是《行为科学推理》的作者;与Noreen Webb合著了《泛论: 初级读本》;是国家研究协会的出版物《教育的科学研究》的编辑。他于斯坦福大学获得教育心理学博士学位。

 

Dr. Sally Goetz Shuler 是国家科学资源中心——国家学院和史密斯学会的一个组织,其职能是在美国和全世界提升K-16的科学学习和教学能力——的执行主任。二十年前,作为NSRC的发起人之一,她的领导才能帮助为所有学生有效学习科学建立了一个组织机构。她与国家学院、学术研究所、合作者和博物馆建立了众多的战略合作,这些计划为学区、州和国家的科学教育计划的发展提供了基于研究的产品和服务的开发、执行和评估。除了NSRC,她30年的从事美国和国际K-16科学教育的经历还包括15年的生物和数学教学以及担任众多的委员会和组织的主席、理事或者顾问,这包括:美克研究院科学教育顾问委员会成员、Burroughs Wellcome基金会的科学教育计划主席、国家青年科学营的评估委员会主席、国家科学教育计划评估指导委员会成员、大洋科学教育卓越中心国家顾问委员会成员。


 

附录 B

各类资源

 

1. 研究与评估方法

Guba, E.G. and Lincoln, Y.S. (1997) Fourth Generation Evaluation. Newbury Park: Sage.

Harlen, W. and Doubler, S. (2004) Can teachers learn through enquiry on-line? Studying professional development in science delivered on –line and on-campus. International Journal of Science Education 26 (10) 1247-1267

Harlen, W. and Altobello, C.(2003) An Investigation of ‘Try Science’ Studied On-line and Face-to-Face. Cambridge,MA: TERC

Harlen, W. (1975) Science 5-13: a Formative Evaluation. London: Macmillan Education

Patton, M. Q. (2001) Qualitative Research and Evaluation Methods. Sage.

Patton, M. Q. (1997) Utilization-Focused Evaluation: The New Century Text. Beverly Hills; Sage.

 

2. 学生学习与发展

Anderson, J. R., Reder, L. M. & Simon, H. A. (1996). Situated Learning and Education. Educational Researcher, Vol. 25, No. 4, pp. 5-11

Anderson, J. R., Greeno, J. G., Reder, L. M. & Simon, H. A. (2000) Perspectives on learning, thinking, and activity. Educational Researcher, Vol.29, No. 4, p.11-13

Black, P. J and Lucas, A. M. (Eds) (1993) Children’s Informal Ideas in Science. London: Routladge

Chi, M. T. H. and Hausmann, R. G. M., 2003. Do Radical Discoveries Require Ontological Shifts? In L. V. Shavinina and R. Sternberg, International Handbook on Innovation (New York: Elsevier), pp. 430-444

Cobb, P. (1994) Constructivism in Mathematics and Science Education. Educational Researcher, Vol.23, No. 7, p.4

Cobb, P. & Bowers, J. (1999) Cognitive and Situated Learning Perspectives in Theory and Practice. . Educational Researcher, Vol.28, No. 2, p.4-15

Driver, R., Asoko, H., Leach, J., Mortimer, E. & Scott, P. (1994) Constructing Scientific Knowledge in the Classroom. . Educational Researcher, Vol.23, No. 7, p.5-12

Driver, R & Scott, P. (1995) Mind in Communication: A response to Erick Smith. Educational Researcher, Vol.24, No. &, pp.27-28

Fay, A.L., & Klahr, D. (1996).  Knowing about guessing and guessing about knowing: Children's understanding of indeterminacy.  Child Development, 67,  689-716 ;  Piéraut-Le Bonniec, G. (1980) The development of modal reasoning: the  genesis of necessity and possibility notions. New York: Academic Press.

Gardner, J. (2006) Assessment and Learning. London: Sage

Harnqvist, K and Burgen, A. Growing up with Science. Developing Early Understanding of Science. London: Jessica Kingsley and Academia Europaea

Hodson, D. (1998) Teaching and Learning Science. Towards a Personalized Approach.Buckingham: Open University Press

Klahr, D. & Simon, H. A. (1999) Studies of Scientific Discovery: Complementary Approaches and Convergent Findings. Psychological Bulletin, 125 (5), 524-543

Kuhn, D. (1989). Children and adults as intuitive scientists. Psychological Review, 96, 674-689;  Kuhn, D., Amsel, E., & O'Loughlin, M. (1988). The development of scientific reasoning skills. Orlando, FL: Academic Press.

Lehrer, R., & Schauble, L. (2006). Scientific thinking and science literacy: Supporting development in learning contexts. In , (Eds) W. Damon, R. Lerner, K. Anne Renninger, and I. E. Sigel Handbook of Child Psychology, Sixth Edition, Volume Four: Child Psychology in Practice. Hoboken, NJ: John Wiley & Sons

Nersessian, N. J. (1992) How do scientists think? Capturing  the dynamics of conceptual change in science. In R. N.  Giere (Ed.) Cognitive models of science. Minnesota studies in the philosophy of science (Vol. 15). Minneapolis:  University of Minnesota Press. p. 3 - 44.

Newell, A., & Simon, H. A. (1972). Human problem solving. Englewood Cliffs, NJ: Prentice-Hall.

Orlando, FL: Academic Press; Kuhn, D., Garcia-Mila, M., Zohar, A., Andersen, C. (1995)  Strategies of Knowledge Acquisition. Monographs of the Society for Research in Child Development. #245, 60, no. 3

She, H. C. (2004). Fostering “Radical” conceptual change through Dual Situated Learning Model. Journal of Research in Science Teaching, 41(2), 142–164 

Smith, E. (1995) Where is the mind? Knowing and Knowledge in Cobb´s Constructivist and Sociocultural Perspectives. Educational Researcher, Vol.24, No. 6, p.23-24

Smith, J., di Sessa, A., & Roschelle, J. (1993). Misconceptions reconceived: A constructivist analysis of knowledge in transition. Journal of the Learning Sciences , 3, 115-163.

 

3. 科学教学实践

Boctor, S. & Rowell, P. M. (2004). Why do bees sting? Reflecting on talk in science lessons. Primary Science Review, 82,  15-17

Ebbers, M. & Rowell, P. M. (2002). Description is not enough: Scaffolding student explanations. Primary Science Review, 74, 10 – 13

Harlen, W (Ed) (2006) ASE Guide to Primary Science Education. Hatfield: The Association for Science Education

Harlen, W. and Qualter, A. (2004) The Teaching of Science in Primary Schools.(4th Edition) London: David Fulton Publishers

Harlen, W.  and Simon, S.(2001) The rise and rise of primary science.  School Science Review 82 (300) March 1 – 8

Harlen, W. (2002) Teaching for scientific literacy in the primary school. Education in the North, No 10 26 - 34

Prophet, R. and Rowell, P.M. (1990).  "The Curriculum Observed".  Chapter 1 in C.W. Snyder, Jr. and P.T. Ramatsui (Eds.), Curriculum in the Classroom:  Context of Change in Botswana's Junior Secondary School Instructional Program.  Gaborone:  MacMillan.

Raizen, S.  (1991) The reform of science education in the U.S.A. Déjà vu or de novo? Studies in Science Education. Vol 19, 1-41

Rowell, P. M. & Ebbers, M. (2004). Constructing explanations of flight: A study of instructional discourse in primary science.  Language and Education, 18 (3), 264-280.

Rowell, P. M. & Ebbers, M. (2004). School science constrained: Print experiences in two elementary classrooms.  Teaching and Teacher Education, 20(3), 217-230.

Rowell, P. M. & Ebbers, M. (2004). Constructing school science: Competing discourses in an inquiry-based elementary program. International Journal of Science Education, 26(8), 915-934.

Rowell, P. M. & Ebbers, M. (2004). Elementary Science Education in Alberta Schools. Edmonton: Centre for Mathematics, Science and Technology Education, University of Alberta.

Rowell. P. M. (2004).  Developing technological stance. International Journal of Technology and Design Education,  14(1), 45-59.

Rowell, P. M. (2002). Peer interactions in shared technological activity: A study of participation. International Journal of Technology and Design Education, 12, 1-22.

Rowell, P. M. (1997). Learning in school science: The promises and practices of writing.  Studies in Science Education, 19-56.

Schoultz, J., Hultman, G. (2004). Science teaching and the school- when concepts meet context. Journal of Baltic science education. 2(6). 22-33.

Schoultz, J., Hultman, G. (2003). In the beginning we used our fantasy, paper at the Second Monterry international conference on K-12 science education. Monterry, Mexico. May 11-13, 2003

Schoultz, J., Hultman, G. (2003). Learning and non-learning in the science classroom. Paper at 10th Biennial Conference Padova, Italy - August 26 – 30, 2003

Schoultz, J.; Hultman, G. (2004). Theory-based evaluation and sustained interaction  - NTA in Sweden. Paper at the International Workshop on Evaluation of Inquiry Based Science Education  Santiago, Chile – January 22-23, 2004

Schoultz, J., Hultman, G. (2004). Science teaching and the school- when concepts meet context. Paper at NERA´s 32nd Congress. Iceland Reykjavik March 11-13, 2004

Schoultz, J., Hultman, G. (2002). NTA is a great idea We don’t do things just to get bored but because we want to learn. Department of Educational Science, University of Linköping

Schoultz, J., Hultman, G., Lindkvist, M. (2003). At first we got to use our imagination and that was fun. Department of Educational Science, University of Linköping

Schoultz, J., Hultman, G. and Lindkvist, M. 2005. Apprentices in context and complex didactical situations. Pupils’ learning in science teaching, In Educational Science in Sweden, 2005 – findings and future research. Stockholm: Swedish Research Council, Committee for Educational Science, 2005: 13.

Siegel, A. 2001. Telling lessons from the TIMSS Videotape: remarkable teaching practices as recorded from eight-grade mathematics classes in Japan, Germany and the US. Dep of Comp. Sc., Courant Institute of Mathematical Sciences, New York University.

 

4. 针对学生的评估问题和评估测试题

Cavendish, S., Galton, M., Hargreaves, L. and Harlen, W. (1990) Assessing Science in the Primary Classroom: Observing Activities. London: Paul Chapman Publishing

Harlen, W. (2006) Teaching, Learning and Assessing Science 5-12( 4th Edition)  London:Sage

Harlen, W. (2006) The role of assessment in developing motivation for learning. In J. Gardner (ed) Assessment and Learning. London: Sage

Harlen, W. (2006) On the relationship between assessment for formative and summative purposes. In J. Gardner (ed) Assessment and Learning. London: Sage

Harlen, W. (2005) Trusting teachers’ judgment: research evidence of the reliability and validity of teachers’ assessment used for summative purposes. Research Papers in Education  vol 22 (3)

Harlen, W. (2005) Teachers’ summative practices and assessment for learning – tensions and synergies The Curriculum Journal, 16 (2) 207-223

Harlen, W. (2005) The role of assessment in the implementation of science in the primary school. In (Eds) T. Ellermeijer and P. Kemmers Science is Primary. Proceedings of the 2004 European Conference on Primary Science and Technology.  Amsterdam: AMSTEL Institute 27 -48

Harlen, W. (2003) Enhancing Inquiry through Formative Assessment. San Francisco: Exploratorium

Harlen, W. Macro, C., Reed, K. and Schilling, M. (2003) Making Progress in Primary Science  A Handbook for Inservice and Preservice Course Leaders. (2nd Edition) London: RoutledgeFalmer

Harlen, W. (2001) The assessment of scientific literacy in the OECD/PISA project. Studies in Science Education, Vol  36, 79-104

Harlen, W. (1983)  Science at Age 11. APU Science Report for Teachers: 1. London: DES/WO/DENI

Harlen, W. (1986) Planning Scientific Investigations at Age 11. APU Science Report for Teachers: 8. London: DES/WO/DENI

Murphy, P. and Gott, R. (1984) Science Assessment Framework Age 13 and 15. APU Science Report for Teachers: 2. London: DES/WO/DENI

Neill, H, Bursch, P., Schaeffer, R., Thall, C., Yohe, M., and Zappardino, P. (nd) Implementing Performance Assesments. Cambridge, MA: Fairtest

OECD (1999)  Measuring Student Knowledge and Skills. OECD Programme for International Student Assessment (PISA) Paris: OECD p. 9.

Russell, T. and Harlen, W. (1990) Assessing Science in the Primary Classroom: Practical Tasks. London: Paul Chapman Publishing

Schilling, M., Hargreaves, L., Harlen, W., with Russell, T. (1990) Assessing Science in the Primary Classroom: Written Tasks. London: Paul Chapman Publishing

Stiggins, R. J. (2001) Student-Involved Classroom Assessment (3rd Edition). Upper Saddle River: Merrill Prentice Hall

 

 

附录C1

在小学教育中实施IBSE项目的国家

阿富汗

阿根廷

比利时

巴西

柬埔寨

加拿大

智利

中国

哥伦比亚

埃及

 

爱沙尼亚

法国

德国

匈牙利

意大利

马来西亚

墨西哥

荷兰

挪威

巴拿马

 

葡萄牙

塞内加尔

塞尔维亚

斯洛文尼亚

西班牙

瑞典

英国

美国

委内瑞拉

越南

 


 

附录C2

IBSE项目实例

法国:“动手做”

“动手做” (LAMAP)是在科学院的支持下由George Charpak1996年在法国发起的一项进行小学科学教育重建的计划。通过提供一系列的指导中心(2000个),一个针对教师网站(www.lamap.fr),工具以及众多的辅助手段,发行指南手册来指导新法国课程,LAMAP正在日益把法国公立学校的科学教学纳入一个高度集中的系统。10条简单的原则构成了学习的询问规则。它们与如下因素有关:对实验和观察的需求,语言学习与科学收获的紧密关系,对学生的发散性和批判性思考的开发,家庭的关系,以及其他的教育研究院和科学家。

随着许多当地资源中心的建立,从1996年只有很低比例的法国课堂进行科学教育,这个比例在10年后已经提高到了30-40%2007年将对小学科学教育进行系统的评估,但是现在的局部成果已经指出这一系统对儿童学习的正面影响。据媒体报道,这一计划的成功已经在2006年秋季导致一项在中学的前两年将科学和技术教育进行整合的实验性计划。LAMAP正在通过不同的途径与许多不同文化的国家(接近30)合作,帮助他们建立基于质询的科学教育。它还引发欧洲网(POLLEN)准备在欧洲选择12个种子城市,在这些城市进行通过质询进行学习和教学科学的示范。

 

巴西: ABC na Educação Científica – Mão na Massa

ABC na Educação Científica – Mão na Massa计划开始于2001是巴黎的科学院与巴西ABC学院合作的产物。那一年由9名小学教师和教育关于组成的小组在法国队“动手做”LAMAP计划的学校和中心进行了10天的参观访问,几乎同时在大约7个州开始了15个教师培训计划,这些培训绝大多是在大学的科学中心或大学的支持下进行。在圣保罗,开发的素材在教师培训过程中通过付诸纸张或者实验原形的方式传播,使得学校可以在课堂中进行模仿。每次培训活动由40名教师参与,大约耗时4个小时,并且可以作为大学延伸课程的一部分。

最初对法语教材进行修改,现在已经开发了很多新的教材。该计划所采用的“动手做”LAMAP的“10准则”已经被集中到学校的前半段(7岁到11岁)教学中,并且每个班只有一名教师。科学教学和文化的衔接被作为重点。这项计划还面向没有文化的青年、残疾儿童和幼儿园。

互联网站(圣卡洛斯的http://educar.sc.usp.br/maomassa/和圣保罗州的http://www.eciencia.usp.br/site%5F2005/mao_na_massa/default.html)包含了为教师提供了课堂使用需要的素材和应用报告。在科学中心经过数天培训后,再通过INTERNET进行教师培训的计划已经成功在圣卡洛斯开展,

 

美国:国家科学资源中心儿童科学与技术(STC)计划

STC计划是一项全面的、基于研究的K-9科学课程计划,是为了在美国和全球提高K-9学生的科学学习和教学能力。由NSRC开发并且由卡莱罗纳生物学发行公司发行的STC计划包含32个教学单元,它们按照K-9对生命、地球、物理学和技术的学习过程设计。STC包括两个课程系列:儿童科学和技术——共24个单元,涵盖从幼儿园到6年级的学生以及面向中学的科学和技术观念部分——面向6年级到九年级,包括8个比较严谨的课程。两个计划都是在国家科学基金会和众多私人基金会与公司的支持下完成的。

每一个STC计划的单元/课程素材库包括:教师指南、学生用书表、文化单元、教师的参考材料以及每堂课所需要的设备和材料。STC32个单元中,每一个单元都使得学生有机会在8-10周的时间段对重要的科技主题进行深入的了解。通过这些式样,学生们学到与年龄相仿的概念,开发解决问题和批判性思考的能力,养成科学的态度和思考习惯。在实践中,这样的设计允许学生合作,以及独立的得到先验知识和技能,问问题,预言并验证,记录、分享和讨论他们的发现,检查他们的学习过程,并且使他们能够获得新的知识和技巧。

关于STC更多的信息请访问NSRC的网站WWW.NSRCONLINE.ORG或者卡莱罗纳生物的网站WWW.CAROLINA.COM

 

中国:做中学

“做中学”(LBD)是由教育部(MOE)和中国科学与技术委员会(CAST)在2001年发起的一项开拓性科学教育计划,它在幼儿园和小学(5-12岁)推广通过动手做探究式学习科技的方法,目的是建立以学生为中心的教学方式,鼓励学生进行科学的思考和生活,培养具有较高的科学文化素质的公民和全面促进素质教育的提高。

“做中学”LBD一开始就提出了9条原则:

1.面向每一名儿童并考虑不同儿童个体的差异性;

2.为儿童通过生活进行学习建立基础,更重要的是,让他们学习如何生活;

3.选择与儿童生活和周边环境紧密相关的内容;

4.让学生处于主动探究和实验过程的中心;

5.教师是儿童学习的支持者和指导者;

6.使用激励,包括正式的表彰

7.与科学家和教育家一起开展科学活动

8.动员社会和家庭力量参加

9.通过互联网进行国内和国际交流与合作。

为了支持“做中学”LBD,东南大学已经建立了一个研究中心,并且为所有参加试验的学校开发了一个网站WWW.HANDSBRAIN.COM。这个网站提供教师指导用书、相关的课堂和教学素材、教师培训(包括在线教师培训和支持)等等

2001年“做中学”LBD在四个主要城市的44所学校开始推广,现在已经覆盖了20个城市的超过400所幼儿园和小学。该计划受到中国政府和各省的支持,并且与ICSU-CCBS、法国的LAMAPLAPIBSE进行国际合作。

 

印度:跟我来

 

 

Appendix D

IBSE评估联合的研究

Richard Shavelson

评估与研究之间的区别十分模糊。事实上,一个好的评估背后都有明确的理论,在一个或多个地区环境中的评估结果不仅与项目的质量、实施或影响有关,还与项目评估的理论基础有关。实际上,美国国家研究理事会指出很难区分评估与研究,并断定不值得为二者做出区分(Shavelson & Towne, 2002)

然而,在这个项目的背景下,这种区分似乎是有用的。评估IBSE项目最需要优先考虑的事情是改进项目,确立项目的实施质量,以及把这些项目与政策制定者、教育者和公众感兴趣的其他项目进行比较。 有了如此明确的中心,也许会被错失在评估中进行相关研究的可能。在这里我们根据三种问题,简要地指出可以与IBSE评估相关联的研究种类:[15]1)正在发生什么?(2)有没有系统影响?(3)因果机制是什么,它是怎样运作的?(Shavelson & Towne, 2002).

 

正在发生什么?

“正在发生什么?”这个问题要求的是描述。在五年级的课堂上,影响学生学习的探究式教学方式看上去是怎样的?这种方式看上去又不是怎样的?例如,Crawford2000)提供了一份详细的每日教学观察:一个中学生物老师成功地发展出以探究为基础的课堂教学并持续下去。通过观察和分析教师的教学过程,Crawford发现了探究式教学的六个主要方面,它们是:1) 使用真实的问题;2)抓住真实世界的数据;3)教师和学生之间的协作;4)把学习与社会联系起来;5)有着科学家行为的教师典范;6)学生的自主权。 Crawford认为,相对于传统教学,探究式教学要求教师对活动的参与要更为积极和复杂,同时也要求教师承担更为广泛的角色(例如激发者,指导者和科学家的典范)。学生也要通过协作互动和分享经验来学习,而不是被动地接受信息。当我们转而鉴别有效的IBSE实践时,调查探究式教学特征的研究,以及调查探究式教学是否会因为学生性格特点或国家的不同而有所区别的研究,将会被证明十分的有价值。

Wallace and Kang (2004) 研究了六位经验丰富的中学科学教师的教育观念,相关问题是:1)什么是成功的科学学习;2)在科学的教学中,实验室作业的目标是什么;3)他们在课堂上是怎样实施探究式教学的。该项研究的结果支持先前研究的结果:教师对学生和学生学习的观念,教师对科学特征的理解,教师对学校科学教育的文化感知(例如覆盖课程,准备考试) 都会影响他们教授科学的方式,并且还能够促进或阻碍专业开发人员所建议的教学方法,在本例中就是探究式教学的实施。限制探究式教学的观念是有文化基础的,而且更大程度上是公众观念(例如有关以下方面的观念:学生的能力和成熟度,覆盖指定课程的效率,以及为学生准备考试)。与之相对,支持探究式教学的观念则在更大程度上是个人观念,并且以教师关于成功的科学教学的个人观点为基础(例如执行探究式教学所鼓励的观念:独立的思考、解决问题和理解概念)。作者提出正是由于这些个人的目标和观点没有被正式认可,教师们在教学中就要尽力让自己的目标顺从于那些在文化中强加于他们的观念。这样的研究会引发伴随评估的研究问题:在多大程度上这种对教师观念的描述是具体国家特有的或是国际性的?在多大程度上这种观念与教学实践和学生的学习结果相一致?这些观念是否取决于学生的特点?

 

有没有因果效应?

“有没有系统影响?”这个问题指的是因果关系。试图建立因果效应的研究(例如随机实验,准实验)能够十分自然地与终结性评估相联系。但是,当出现诸如怎样最好地改进探究式教学之类的问题时,这种实验也能够在形成性评估中开展。例如,在开发一个IBSE项目时,可以检验促进教师执行IBSE项目的不同方法的有效性。了解这种有效性是否会因为教师对科学教育的观念不同而有所不同具有特殊重要性(见下文)。

Furtak2006)特别提到,对于探究式科学教学的观点,在从“没有固定答案的发现”到“高度指导下的探究”的范围内变化。“没有固定答案的发现”的特点是,学生去发现关于自然界的他们感兴趣的问题,然后在老师的帮助下自己设计方法去解决问题,但是老师不能干涉。“高度指导下的探究”指的是为了一个明确的目标,教师紧密地指导学生活动,例如让学生能够设计控制好的实验。然而,尽管文件中的研究数据基础看上去十分清楚,但什么才能算作探究式教学的观点还在继续变化,并且产生很多混淆。

Mayer2004)指出,与“引导式发现”和“直接讲授”相比,在科学探究中的发现式方法(discovery approach)会产生消极影响。他指出了发现式教学的谬误——教师们认为让学生保持活跃状态会比在不活跃状态时学到更多的东西。如果是让学生的思维保持活跃则老师的这一观念证明是正确的;学生身体活跃是不能替代思维活跃的。在一系列的随机实验中,Klahr(例如Klahr & Nigam, 2004)发现引导式探究比发现式方法产生更有效的学习和迁移。

IBSE的终结性评估为比较探究式教学实践提供了机会。例如,将嵌入和使用了评估的探究式课程与单独使用探究式教学或传统教学进行对比,对其给学习带来的影响进行研究(参见Shavelson2006)。这种嵌入式(“形成性”)评估研究的概念框架由Black & Wiliam (1998)提出。如果教师运用带有嵌入式评估的IBSE,去提高学生对证据的理解和运用以获取知识,那么学生的学生成绩也许会被提高。

最后,Wallace and Kang (2004)的研究显示,如果要探究式科学教学符合此文件中的描述,教师的观念需要与潜在的探究相结合。也就是说,教师仅仅获得探究技能是不够的;没有探究的观念,探究的技能就不能被完全的实施(例如Furtak, 2006; Yin, 2006)。如果教师的观念影响了专业提高IBSE实施质量的有效性,那么一个可能的研究就是对两个的教师培训项目进行比较,一个项目明确地集中在概念转变上,而另一个则是常规的探究式教学项目。在这样的研究中,需要衡量教师最初的观念,并把教师随机分配到培训环境中去,以保证比较组的平衡。

 

什么是因果机理?

确立一个因果关系,在典型情况下不会撇开产生效果的机制。例如,美国在一个大规模的随机实验中e.g., Finn & Achilles, 1990就确立了减少班级人数的因果效应:班级的人数越少,学生的学习效果就越好。然而,导致减少班级人数带来更好的学习结果的机制却不为人所知(并且是大多数人)。这就可以开始两种研究。第一种是获取终结性评估的结果,这一结果显示出,与传统教学相比,IBSE提高了学生的平均成绩,然后再尝试确定探究式教学的哪个或那些方面导致了这种提高。第二种处理机制问题的方法是假定一个因果机制,比如评估谈话(Duschl & Gitomer, 1997),让学生用体验中的证据来证明他们对自然世界的观点,然后把这种机制加入到探究式教学中去观察其效果(例如Yin, 2005)。

 

参考文献

Black, P., & Wiliam, D. (1998). Assessment and Classroom Learning. Assessment in Education, 5(1), 7-74.

Crawford, B. A. (2000), Embracing the essence of inquiry: New roles for science teachers, Journal of research in science teaching, 37(9), 916-937.

Duschl, R.A and Gitomer, D. (1997).  Strategies and challenges to changing the focus of assessment and instruction in science classrooms.  Educational Assessment,  4(1): 337-73.

Finn, J.D., & Achilles, C.M. (1990).  Answers and questions about class size: A statewide experiment.  American Educational Research Journal, 27, 557-577.

Furtak, E. (2006). The problem with answers: An exploration of guided scientific inquiry teaching. 

Issues and Trends, 453-467.

Klahr, D., & Nigam, M. (2004). The Equivalence of Learning Paths in Early Science Instruction: Effects of Direct Instruction and Discovery Learning. Psychological Science, 15(10), 661-667.

Mayer, R. E. (2004). Should there be a three-strikes rule against pure discovery learning? The case for guided methods of instruction. American Psychologist, 59(1), 14-19.

Shavelson, R.J. (2006).  On The Integration of Formative Assessment in Teaching and Learning: Implications for New Pathways in Teacher Education.  In F. Oser, F. Achtenhagen, & U. Renold (Eds.), Competence-Oriented Teacher Training: Old Research Demands and New Pathways.  Utrecht, The Netherlands: Sense Publishers.

Shavelson, R.J., & Towne, L. (Eds.) (2002).  Scientific research in education.  Washington, DC: National Academy Press.

Wallace, C. S. & Kang, N. H. (2004), An investigation of experienced secondary science teachers’ beliefs about inquiry: An examination of competing belief sets, Journal of research in science teaching, 41(9), 936-960.

Yin, Y. (2005). The influence of formative assessment on student motivation, achievement, and conceptual change. Unpublished doctoral dissertation, Stanford University.

 

 

附录 E

 

项目实施阶段表

 

在少数几个地方试点引进IBSE项目

(1)

(形成性)

在许多地方引进的IBSE项目(2)

发展中IBSE项目

 

(3)

充分实施的IBSE 项目

 

(4)

(终结性)

教室层面(在一个教室内; 经过几天,几个星期)

教学实践

教师的教学活动日志;

观察草案和访谈草案;

 

 

 

探究实践

教师,学生

观察草案:教师与学生之间的互动; 学生与学生之间的互动

 

 

 

学生的知识,理解和运用

对学生的知识采用持续的、嵌入式的测评

 

 

 

学生的态度

对学生的观察;

态度调查; 对学生的访谈

 

 

 

学校层面

(在一个学校内,经过几年)

教学实践

 

对教学变化的观察

对教学实践的调查问卷

 

探究实践

教师,学生

 

 

 

 

学生的知识,理解和运用

 

 

 

 

学生的态度

 

 

 

 


项目的执行阶段(接上)

 

 

阶段(1)

阶段(2)

 

阶段(3)

 

阶段(4)

 

项目层面

(各个教室和学校之间, 在几年内重复实施)

教学实践

 

 

 

 

对教师和管理者的调查问卷; 教师日志的样本;

课堂观察的样本

探究实践

教师,学生

 

 

 

对学生和教师的调查问卷, 学生作业的样本; 观察样本

学生的知识,理解和运用

 

 

 

学生成绩(由外部构建的测试进行测评,并 对比多年IBSE经验进行分析)

学生的态度

 

 

 

报名参加中学的高级科学课程(非必修),

高等教育的专业化课程

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

附录 F1

课堂观察

Pat Rowell

一堂课主要有两个方面要被观察:这堂课的框架或结构和参与者参加(或互动)的特性。

 

课堂框架

 

主题/目标/活动

活动的真实生活背景

面向调查/证据的任务?

解释的产生?

交流想法?

用评估策略支持探究活动?

 

课堂互动

课堂互动是在探究过程不可分割的一部分。

教师是定型这些互动的关键。教师负责引领学生进入到一个探究式谈话中去。教师要通过把学生的注意力定位在以下几个方面来搭建一个探究过程的平台:

l        学生们最初想法

l        支持这些想法证据

l        设置一些可以通过调查得到答案的问题

l        进行试探性的解释和预测

l        计划收集证据

l        收集数据

l        以支持解释的证据或论据为基础构建解释

l        修正最初想法

 

设计一个观察备忘录记录以下观察内容:

¡       教师话语

        教师是否给予指导、讲解并举例说明?提供解释?

        教师讲话中描述的科学观点是什么?

        教师是否引导并搭建一个探究式对话的平台?

¡       教师对学生的话语

           教师是否询问学生的想法?要求学生弄清问题?要求学生做出解释?

           教师是否在搭建调查计划的平台时,考虑了学生对调查程序的建议?

           教师是否支持学生做出的解释?

           教师是否为学生们分享他们的想法提供机会?

¡       学生对学生的话语

        学生是否在小组之中分享他们的想法?积极地参与提出问题?运用优先的知识?

           学生是否显示出兴趣?注意力是否集中?是否有热情?

 

 

 

 

 

 

 

 

 

 

 

 

 

附录   F2

 

对教师和学生访谈的指导原则

Glenn Hultman

    这些访谈以一项或几项观察(通常是参与式观察)开始进行。研究人员参与课堂和IBSE课程教学。他(她)要做记录,这样做有两个目的:一是为了记录发生的事件,二是记下即将在访谈第三部分(情境访谈)所要讨论的某些话题。观察人员应当是整个观察情境的一个部分,但不引人注意。他(她)应当与某一组学生紧密联系或以其他方式密切联系。如果教室里学生众多,他(她)也要尽量融入,不能只坐在教室后排控制、观察、做记录,这点应当牢记。

这项访谈从传统问题开始,逐渐转向有着共同兴趣的二人谈话形式。“课堂里发生了什么/学生如何学习科学概念”等等,最后关注的是课程教学中发生的一切。

这项访谈由三部分组成:背景、对IBSE的观点、课堂事件。一切都被记录在案(通过录音带、碟片、MP3)且毫无变动地传送出去(无须对语言改正以达到标准的术语)。录像中无对话部分也要用文字形式描述,描述学生在无声交际、交流和训练时发生的一切。

教师指南:

1、你作为老师(时间、班级、同事……)的经验有哪些?

2、为什么是科学?你怎样对科学产生兴趣?

3、你在科学课方面接受了哪些训练?

第二部分:

4、为什么你开始IBSE

5IBSE的好处有哪些?

6IBSE劣势有哪些?还有哪些不足?

7、自从开始实践IBSE以来,你的教学方法有过改变吗?

8、课堂对话现在更具活力了吗(你是否感受到了不同)?

9、你花了更多的时间做计划吗?

10、将学生考虑在计划之中了吗?

11、你有否与学校的同事共同做计划?

12、如今学校内的科学讨论增加了吗?

13、你对课件中的材料有何见解(是否合适)?你(或你的学生)使用过程中有问题吗?

14、你记录下你的工作了吗?如何记录的?

15、你严格遵守课程大纲吗?你是否做过修改?(这个问题会导致各种各样的详细回答——有些人遵从大纲,而有些人用他们自己的方式使用大纲)。

16、你是如何“知道”学生学习,理解科学概念的?你使用的是哪种证据?你在寻找什么,聆听什么?(这是进入谈话前的过渡性或礼仪性问题)

第三部分:

17、该部分是一个对话。访谈前的观察对此对话具有启发作用。访谈者使用他(她)的记录,回顾课堂上发生的事件,开始进行充满兴趣和好奇气氛的谈话——为什么你认为它发生了?你对X事件的解释是什么?你当时看见那些男孩在后面吗?两个女生坐在我旁边的地板上,你注意到了吗(你知道他们做什么了吗)?等等

 

学生指南(依据年龄有所调整):

1、你喜欢你的学校吗?总体印象。

2、你学校最好的是什么?你有没最喜欢的学科?

第二部分:

3、你喜欢IBSE吗?

4、你知道IBSE是什么吗?它是什么意思呢?

5、科学意味着什么?什么是科学?

6、你看电视节目《大脑办公室》吗(一档关于科学的当地电视节目)?

7、你看过其他科学节目吗?

8、有你一直喜欢看的节目吗?

9、你对科学的兴趣增长了吗?

10、你今后想从事的职业(岗位)是什么?

11IBSE的优势是什么?

12、你有无不喜欢的东西?

13IBSE节目中有哪些领域/概念/模式你曾经涉及过?

14、你过去最喜欢什么?

15、你过去发现过什么复杂的东西吗?

16、你从IBSE课程/科学课程中学到了什么(有时很难回答你学到了什么,但是如果谈话用不同的方式进行表述,可能会有更丰富的回答)?

17、你今天学了些什么(问题1617是进入访谈前的过渡性或礼仪性问题)?

第三部分:

18该部分是一个对话。访谈前的观察对此对话具有启发作用。访谈者使用他(她)的记录,回顾课堂上发生的事件,开始进行充满兴趣和好奇气氛的谈话——为什么你和朋友使用红蓝相间的部分?当时发生了什么?X事件发生时你在想什么?你是坐在后面一组的男孩中的一个,你做什么?你和你朋友坐在我旁边的地板上,你能解决这个问题吗?你明白当你有那个反应时发生了什么吗?你能向我解释你做的Y试验吗?等等

 

情境访谈

访谈第三部分是为了创造一个“两位观察者”——教师与研究者之间的谈话。他们讨论IBSE课堂上所发生的事情——理解教师和学生所感知的IBSE课程以及IBSE中的社会结构。

    情境访谈既可以是单纯的访谈,也可以是与观察结合的访谈。访谈中有些传统规则一样适用:如避免引导性问题;接受访谈人员的谈话应占大部分时间;用开放式思维倾听;对日常进程显示出兴趣(不要评价);不要将对话限定在正式的目标和策略上;不要有太多关于谁说了“什么“的问题。多问他们做了什么,发生了什么,发生的方式以及他们如何理解发生的事情等问题。他们对于发生的事件和做过的事情能解释并且讲出他们的意图吗?

    情境访谈可被描述为在事件发生地进行的对话方式访谈,可以在课程刚结束的教室或在相邻的教室里进行。教师和研究者讨论在研究者参加教学进程时发生的不同事件。研究者参与(而不是坐在教室后面静静地观察)并且做些小笔记,帮助自己记下一些陌生的情形。

    使用录像时应,应注意文字说明仅仅关注磁带或磁盘中的交流部分。尽量显现和写下无声的部分。许多事情在教室安静的角落发生,当摄像头对准某一个角落时,会有其他事情在其他角落发生。

    这些访谈指南给对话设定了一个大致的框架。研究者需要设计后续问题,并且更具交际特性探索其他问题。

    以下的问答是来自访谈和观察中的例子。对IBSE的描述可用于理解“ethno”版本的IBSE。从字里行间,你可以理解访谈过程和IBSE的另外一面。这些来自访谈的问答帮助你理解IBSE在课堂内教学的情形。

访谈中讨论研究式方法(女生,四年级)

I:你今天学了些什么?

P:没学什么。我没法学。

I:你不能学?

P:是。我们有一根电线,以为会发光。我不知道他是否能引起烟火或者是发光发热或者是会像烟一样燃烧。

I:为什么你认为电线会燃烧?

P:不知道。可能是因为电池中有电流吧。

I:正确。电池释放电流,你就能看见灯泡亮了。

P:但是我不明白呀,因为它没亮。但是本篇我们讨论目标(指向笔记本),我们会写下任务目标,然后我们就知道我们要做什么了。

访谈,,学生学习科学I (女生,一年级)

P:我知道灯泡怎样连接了。我也学会如果你有一个小灯泡两节电池,那么灯泡会很亮。

I:如果你只有一个灯泡和一节电池呢?

P:灯泡的光会弱一些。

I:当你连接灯泡和电池,你有无想过一些什么特别的事情?

P:有。就是你必须得做对。

I:你怎样记在心中?

P:你必须得想……(画图表)这是灯泡,这是电池。一根圆丝会穿过灯泡,这根线是电线,一根在这儿,一根在那儿。

I:如果你弄断了,会发生什么呢?

P:哦,那灯泡就不会亮了。因为电池不会放电,电流也就没了。

访谈,学生学习科学II (男生,三年级)

P:我学会了花必须接受花粉才能生长。

I:你知道花有哪些部分吗?

P:知道。花瓣、雄蕊、花的柱头、雌蕊、茎等,再比如,花的心皮。

I:为什么你今天在画蜜蜂?

P:我也不知道。哦,因为我们以前这时在上授粉课。

IBSE项目实施中得出的结论:

在对IBSE研究性学习中,得出下述结论:

·        做得太多——需要更多时间反思

·        实验工作不总是提供概念的变化

·        开放式问题令人困惑

·        零散的知识必须整理在一起

·        任务必须嵌入整个课堂进程之中

·        介绍和总结很重要

·        学习科学或学习如何处理科学材料

·        让学生产生渴望学习的动机情景

·        材料不充足,教师很重要

教师的作用

·        充分了解学习内容和主题的目标,这很重要

·        解释任务,让学生了解总体情况和其中的前后关系

·        熟悉主题的机会与难点的很重要

·        介绍主题很重要

·        讨论和总结学生所得结论是非常重要的部分

·        学生在做出结论时需要帮助

这些结论关注教师的角色,同时表明在课堂教学过程中,从主题的开始到结束都会出现许多问题。


 

附录   F3

对教师和学生的调查问卷

Wynne Harlen

下面是一张有用的问卷调查表,可根据教师和学生情形进行调整,它对一系列实践进行两个判断。这些实践在本页中部列出,要求答卷者:

在左侧表明是否“从不真实”、“很少真实”、“经常真实”或“大多真实”。

在右侧表明他们认为实践帮助学生学习的重要程度。这可以指明即便他们不能经常使用,也能估测出这项实践的价值。

教师表格,检查以下内容:

 

你们课堂有多真实?

教师

实践

学生学习科学有多重要?

从不

真实

很少

真实

经常

真实

大多

真实

 

不重要

有限

重要

必须

 

 

 

 

陈述1

 

 

 

 

 

 

 

 

陈述2

 

 

 

 

 

 

 

 

陈述3

 

 

 

 

 

 

 

 

等等

 

 

 

 

 

对于一份教师问卷调查表,陈述可以呈现许多形式,可以包括对IBSE课程实践“肯定”或“否定”的评价,比如:

·        学生在调查前分组讨论如何在实施调查

·        鼓励学生提问,促进更深一层的调查

·        我确信学生明白工作的目标和重点

·        学生有机会评价他们自己的工作

·        学生使用指定标准评审每个人的工作

 

·        学生独立工作

·        我确信他们在笔记本中记录都正确

·        学生认真按指令进行实践活动

·        我提问主要检查学生所掌握的知识

比较实践报告和判断值,从中可以获取什么是重点的丰富信息,从而可以指明进一步的训练需求,实践中发生的事情,以及教师乐意去做的事情和他们能够做的事情之间是否存在冲突。

对于一份学生问卷调查表,右侧所列判断选项应为“该课程对于你学习科学重要吗?”陈述与教师调查表一致,适当调整为:

·        教师确信我们明白我们作业的目标

·        鼓励我们多对自己作业的提问

 

 



[1] 我们用术语“中学之前”表示某一类班级和学校。在这类学校里,学生主要是由一名非专业的、年长的教师授课,学生的年龄范围在51213岁之间。这类学校在一些国家被称为“小学”,在其他国家则被称为“初级学校”或“中级学校”。

[2] 见注1

[3] Programme for International Student Assessment国际学生测评项目 www.pisa.oecd.org

[4] Trends in International Mathematics and Science Study国际数学与科学学习趋势 http://nces.ed.gov/timms

[5] 参见附录B

[6] OECD (1999)  Measuring Student Knowledge and Skills. OECD Programme for International Student Assessment (PISA) Paris: OECD p. 9.

[7] Raizen, S.  (1991) The reform of science education in the U.S.A. Déjà vu or de novo? Studies in Science Education. Vol 19, 1-41

[8] NRC (National Research Council) (1996) National Science Education Standards. Washington DC: National Academy Press p23

[9] NSF (National Science Foundation) (1997) The Challenge and Promise of K-8 Science Education Reform Foundations, 1. Arlington, VA: NSF p7

[10] National Assessment of Educational Progress国家教育进展测评 http://nces.ed.gov/nationsreportcard/

[11] Lehrer, R., & Schauble, L. (2006). Scientific thinking and science literacy: Supporting development in learning contexts. In (Eds) W. Damon, R. Lerner, K. Anne Renninger, and I. E. Sigel Handbook of Child Psychology, Sixth Edition, Volume Four: Child Psychology in Practice. Hoboken, NJ: John Wiley & Sons

[12] Klahr, D. & Simon, H. A. (1999) Studies of Scientific Discovery: Complementary Approaches and Convergent Findings. Psychological Bulletin, 125 (5), 524-543; Newell, A., & Simon, H. A. (1972). Human problem solving. Englewood Cliffs, NJ: Prentice-Hall.

[13] Kuhn, D. (1989). Children and adults as intuitive scientists. Psychological Review, 96, 674-689;  Kuhn, D., Amsel, E., & O'Loughlin, M. (1988). The development of scientific reasoning skills. Orlando, FL: Academic Press.

[14] 有关所选择的评估方法的讨论, 参见the 2002 User-Friendly Handbook for Project Evaluation, NSF 2002.

[15] 感谢研究探究式教学的科学教育研究生Jason Tan and Erin Furtak,他们在此提供了一些实例描述。