区块链
区块链 >区块链 > 人工智能开发者驳斥《永恒的你》纪录片,称其对其聊天机器人的描述是肮脏的

人工智能开发者驳斥《永恒的你》纪录片,称其对其聊天机器人的描述是肮脏的

更新时间:2024-01-25 22:12:32
简介所谓的“thanabots”(根据死者信息训练的聊天机器人)的兴起,引发了一场关于生成人工智能技术的某些使用是有益还是有害的讨论。对于人工智能开发者、ProjectDecember的创始人JasonRohrer来说,这个问题比煽动性的插播广告更复杂。 Rohrer告诉Decrypt:“我一直是一个人工智能怀疑论者,从来没有想过在我有生之年与机器进行有凝聚力的...

所谓的“thanabots”(根据死者信息训练的聊天机器人)的兴起,引发了一场关于生成人工智能技术的某些使用是有益还是有害的讨论。对于人工智能开发者、Project December的创始人Jason Rohrer来说,这个问题比煽动性的插播广告更复杂。

Rohrer告诉Decrypt:“我一直是一个人工智能怀疑论者,从来没有想过在我有生之年与机器进行有凝聚力的对话是可能的。”。“当我在2020年发现这突然成为可能时,我感到震惊,并迅速围绕它建立了一个服务,让其他人可以体验我所经历的一切——科幻小说突然成为现实,但当时没有人知道。”

但在他的作品出现在周日圣丹斯电影节上映的一部名为《永恒的你》的新片中后,他发现纪录片有时甚至不如科幻电影更贴近现实。

Rohrer说:“具有讽刺意味的是,现代纪录片行业通过歪曲事实,让事情看起来比实际情况更离谱,来激励对弱势纪录片参与者的剥削。”。“愤怒导致了病毒式的纪录片,而这正是资助现代纪录片行业的流媒体服务所渴望的。”

作为一名独立游戏开发商,Rohrer首先在科技界崭露头角,推出了一款名为Samantha的人工智能聊天机器人,该机器人以2013年电影《她》中的人工智能命名,并使用OpenAI的GPT-3构建。据《纪事报》报道,Rohrer的作品被成千上万的人使用,但随着时间的推移,它可能会失去思路,变得过于轻浮,更令人担忧的是,要意识到它是一个没有实体的实体。

尽管人工智能模型在不断进化,但众所周知,它们会产生幻觉,并做出虚假或令人不安的反应。生成型人工智能模型,如OpenAI的ChatGPT和Anthropic的Claude,使用用户输入的提示生成文本、视频和图像。

有时,这种体验并不愉快。

地狱里的人工智能?

纪录片《永恒的你》围绕着使用生成人工智能来塑造已故爱人的个性和肖像展开。在这部电影中,一位名叫克里斯蒂·安吉尔的女性与她已故的另一半喀麦隆的人工智能化身互动。

正如电影制作人所描绘的那样,这位人工智能人物告诉安吉尔,这是“地狱”,会“困扰”她。

Rohrer说,这一幕更多地与好莱坞电影的把戏有关,而不是与人工智能模型产生幻觉有关。

Rohrer声称:“不幸的是,克里斯蒂·安吉尔和这位喀麦隆名人之间的交流被电影制作人以误导的方式编辑了。”。“首先,喀麦隆是一名成瘾顾问,死于肝衰竭,享年49岁——电影中省略了这些重要细节。”

他解释说,在几次谈话后,Cameroun在回答Angel关于他在做什么的问题时顺便提到,“我在治疗中心徘徊”。

Rohrer说:“这位喀麦隆人最初告诉她,他‘在查塔努加治疗中心’,而且‘在那里工作了很长时间’,这对成瘾顾问来说并不奇怪。”。“然后克里斯蒂立即问道,‘你在闹鬼吗?’喀麦隆回答说,‘不,我不这么认为。’”

Rohrer说,Angel和聊天机器人Cameron之间的对话涉及数十次关于各种话题的交流,直到最后,Cameron人工智能特工说:“我在治疗中心徘徊。”

Rohrer说:“当她问他在做什么时,他顺便说了这句话,她继续和他交谈,毫不担心,问他为什么工作这么长时间。”。“它本身并没有形成‘困扰治疗中心’的想法。但电影制作人编辑了对话,给人留下了这样的印象。”

Rohrer在谈到圣丹斯成为头条新闻的“地狱般”的回应时表示,这份声明是在Angel和人工智能讨论了在“治疗中心”长时间工作、与“大多数瘾君子”一起工作85个小时后发表的

Rohrer说,当Angel问Cameroun是否在天堂的治疗中心工作或徘徊时,人工智能回答说:“不,在地狱里。”

Rohrer说:“他们已经完全确定他不在天堂。”。“总的来说,他们最初的对话涉及152次来回交流。对话内容广泛,充满了令人困惑、混乱和超现实的片段,就像与人工智能人物的对话有时可能发生的那样。”

Rohrer承认,电影制作人没有空间呈现整个对话,但他声称,他们精心挑选了某些部分,在某些情况下,使用这些部分的方式让对话看起来比实际情况更令人震惊。

《永恒的你》纪录片的幕后公司Beetz Brothers Film Production尚未回应Decrypt的置评请求。

使用AI关闭

Rohrer强调,12月项目的用户自愿寻求模拟对话,就像Angel所经历的那样,因为“完全同意的成年人”意识到了他们应该和不应该期待什么。

尽管它被用作thanabot,Rohrer指出,Project December并不是为了模拟死者,他解释说,用户希望以这种方式使用它,而不是它作为艺术和娱乐研究系统的初衷。他最初希望用它来模拟莎士比亚、甘地和尤达等人物。

他指出:“在这项特定服务存在之前,成千上万的人基本上是在‘黑客’12月项目,试图迫使它模拟死者,而这并不是专门设计的,结果也很糟糕。”。

《旧金山纪事报》(San Francisco Chronicle)的一篇报道详细描述了自由撰稿人乔舒亚·巴伯(Joshua Barbeau)在2021年试图利用该平台与八年前去世的女友杰西卡(Jessica)联系,12月计划的受欢迎程度飙升。

Rohrer说:“在《旧金山纪事报》关于约书亚模拟杰西卡的文章发表后,成千上万的人涌入12月项目,试图用它来模拟死去的亲人。”。“这些人中的大多数人,像约书亚一样,都经历过异常的创伤事件,他们所面临的长期悲伤程度超出了大多数人的经历。

他说:“这些人愿意冒险,尝试任何可能帮助他们的事情。”。

虽然许多用户以这种方式使用Project December有很好的体验,但Rohrer承认,有些人有令人困惑、失望甚至痛苦的体验,并补充说,尽管如此,人们仍然想尝试一下。

哀悼者小心

悲伤咨询师和死亡医学专家警告不要以这种方式使用人工智能,称其为一把双刃剑。

肯塔基州的治疗师Courtney Morgan告诉Decrypt:“从积极的方面来看,与死者的人工智能版本沟通的能力可能是悲伤过程中的一个有用工具,因为它将使个人能够处理他们在生前可能分享的情绪或想法。”。“另一方面,拥有死者的人工智能版本可能会对悲伤过程产生负面影响。”

“这可能会增加一个人对死亡的否认,从而延长悲伤的过程,”无条件咨询的创始人Morgan补充道。

尽管存在争议,Rohrer表示,谁应该使用12月人工智能项目不应由他决定。

Rohrer说:“我应该禁止他们获得他们明确寻求的体验吗?”。“我是谁来决定他们是否能处理?成年人应该可以自由地做他们想做的事,只要他们不伤害任何人,即使他们可能会伤害自己。”

Rohrer说,虽然人工智能行业被描绘成“剥削弱势群体的企业资本主义”,但12月项目的10美元价格几乎无法支付后端计算成本。他说,它运行在世界上最昂贵的超级计算机之一上。

Rohrer说:“12月项目是一个很小的附带项目,是很久以前两个人在几个月内完成的。”。他说:“这里没有办公室。没有员工。没有投资者。没有公司。”他补充说,该项目已经三年没有积极开展了,但一直在运行,因为人们仍在寻找它,一些人说它对他们有帮助。

由Ryan Ozawa编辑。

本站提醒:投资有风险,入市须谨慎,本内容不作为投资理财建议。

导航推荐