这个人工智能可以让你与已故的亲人交谈(但也许这不是你想要的)

AEO Service Forum Drives Future of Data Innovation
Post Reply
nurnobi85
Posts: 25
Joined: Wed Dec 04, 2024 10:38 am

这个人工智能可以让你与已故的亲人交谈(但也许这不是你想要的)

Post by nurnobi85 »

近年来,人工智能(AI)在模仿人类行为方面取得了巨大进步;如此之多,以至于令人恐惧和恐吓。在过去的十年里,聊天机器人和Siri 或 Alexa 等虚拟助手已经从高科技新奇事物变成了数百万人日常生活的一部分。

但人工智能的触角不仅汇聚了安全、数据分析、服务或各种内容创建方面的应用,还有一些涉及复杂的伦理争论。

最后一点是像HereAfter这样的平台,它的作用是按需生成已故亲人的人工版本。

用该公司自己的话说,“复杂的算法和自然语言处理能够复制(在一定程度上是声音)死者的表达方式” 。

从人工智能到超越
James Vlahos 是 HearAfter 的创始人,2017 年他的父亲 韩国电报电话号码列表 因癌症去世后,他开始研究这个概念。Vlahos 在他的父亲被诊断出患有第四期肺癌时,根据他的父亲创建了一个聊天机器人。

Image

几个月来, Vlahos 记录了他父亲讲述他生活中的故事,让他 喂养 现在用相似声音说话的人工智能,并知道为什么他的膝盖​​上有疤痕或者他的第一只宠物叫什么。

自2017年创立以来, HereAfter经历了多次迭代和改进。该团队添加了情绪反应或语音识别等功能。该平台的目标是(我们不清楚它是否成功)准确地再现它所代表的人的行为和情感。

《麻省理工科技评论》的记者 Charlotte Jee 亲自测试了这个工具。正如他在编年史中所解释的那样,他必须用他父母的声音和记忆来训练两个聊天机器人——他们还活着。让 Jee 自己惊讶的是,这种体验非常真实。就连周围的人都相信他正在和父母进行正常的电话交谈。

但是,尽管它在重现行为和情感方面取得了重大进展,但该平台 仍在完善中。当然,尽管在其完全发挥作用之前还有很多工作要做,但争论已经结束了。

我本来想和死人说话

伦理影响是HereAfter路上最大的石头
至少在今天,这家公司以及所有遵循类似路线的公司的 道德影响是 巨大而深远的。尽管技术或许能够准确地再现死者的行为和情感,但尚不清楚它是否能够真正复制人的个性和本质。

我们也不能忽视 此类技术可能被滥用的情况。而且,虽然有些人可能将这种人工智能生成的版本视为应对亲人死亡的一种方式,但其他人可能将其视为 一种操纵、勒索或控制的手段。

想想这并不是一个小问题,因为数百万美元的诈骗都是通过语音克隆技术进行的。阿拉伯联合酋长国的一家银行就是这样,他们通过简单地克隆一家公司董事的声音,说服经理进行了 价值3500万美元的交易。

此外,数据保护法的适用也存在差距。该公司存储录音和提供的数据,但确保 不会通过提取广告数据来分发或货币化它们。

问题是,你真的能相信那些不仅没有给出而且已经不在世的人的数据不会被用于盈利吗?

此外,“此后”的伦理含义引发了有关 死者隐私权的问题。例如,谁应该有权访问人工智能生成的版本?应该仅限于家人和朋友,还是应该向公众开放?即使一个人已经不在世了,开发商本身是否有权了解一个人的私生活细节?
Post Reply