相反,明智的政策应该建立在坚实、持久的基础之上。当今人工智能的基础是数据。人工智能的工作原理是寻找数据中的模式,将其抽象为模型,然后应用该模型来生成可重现原始数据特征的新信息。因此,无论是利用当今生成式人工智能的力量,还是降低其在教育领域使用的风险,核心问题都是数据。
(ChatGPT 不是使用教育数据或有关教育过程的信息构建的。虽然它可以产生类似于教育环境中的输出,但它无法预测人类学习的过程。这是因为爬取网络来收集用于构建当今大型语言模型的数据的机器人无法访问学习过程数据。)
如今,擅长将人工智能应用于教育的研究人员、开发人员或创新者也缺乏足够的数据。事实上,那些最有能力构建教育专用“基础模型”的人抱怨难以获得大量相关数据集。因此,在教育领域实现强大、低风险的人工智能之路发展趋 律师资料 势的深必须从安全地提供足够的数据来抽象出特定于教育问题的模型的问题开始。它必须是关于教学和学习过程的数据。
谈到教育大数据,必须承认 InBloom 失败的后果, InBloom 曾试图将教育技术数据集中化。公众不会全权负责学生私人数据的集中化。但大规模集中化并非必要。
相反,可以使用隐私保护数据共享机制(例如安全区域)来构建 AI 模型。在安全区域,数据保持本地状态。API 允许本地服务器运行计算并返回有关数据的统计汇总信息 — 重要的是,不会泄露数据本身。虽然未经测试,但 AI 模型构建者可以借此开发模型,而无需访问完整数据,而只需要求报告本地数据的某些统计属性。我的政策建议的第一部分是:(1)资助通过隐私保护机制构建 AI 模型的研究,以便当地社区可以参与构建相关模型,而无需泄露所有数据。