学区为解决学生隐私问题而制定的政策甚至没有考虑到这些威胁。像俄勒冈州那样,向《家庭教育权利与隐私法》发出警告并警告学生不要在法学硕士课程中输入私人信息是不够的,但至少该州已经开始考虑政策和建议。下一阶段应该是制定合理的系统和监管框架来处理这类困难。
软件公司可以创建工具的框架,然后出售给已经保存私人记录的学区。同意书可以允许访问更多数据,但这些表格应该清晰易懂,而不是目前每个人都忽略的晦涩难懂的大部头。监管必须迫使公司只收集必要的数据,限制他们出售这些信息的能力,不仅规定数据收集和保留的参数,还规定删除的参数。对不当处理此类数据并遭受违规的公司,还必须采取严厉的法律措施。
但问题仍然存在:像美国国家教育统计中心所持有的那些数据存储是否的通讯 亚马逊数据 应用 为保护会成为公共事业?未来几年我们是否需要“思想自由”的法庭裁决和监管框架?学生“信用评分”——目前由一些学区使用人工智能软件创建和跟踪——在他们毕业时是否会传递给警察?
问这些问题让我觉得自己有点疯狂。但这些问题并不是科幻出现的问题。现在很多问题都已经存在,如果将生成式人工智能视为又一个可以忘记的教育技术承诺而置之不理,可能会让学生面临人工智能的所有危害,而无法利用其潜在优势。许多学区使用教师评分量表来识别学生是否适合高级(即有天赋)课程,例如补充教学和单独班级或学校。在这些量表上,教师通过分配一个值来判断孩子是否高级——例如,在一个突出的选项上,分配一个 1 到 9 的数值。但这个过程有多公平?在最近的一份工作论文中,康涅狄格大学和 NWEA 的分析小组研究了教师评分的变化以及“评分者依赖”的普遍性和潜在后果——即评分对教师而非学生的依赖程度。