因客服机器人说错话,加拿大航空公司被迫退款,AI这类失误为何屡禁不止?
2024-04-28 03:14:33

尤其是因客白人男性。

不要相信这些模型是服机无所不知的,该领域的器人焦点是模型如何产生它们所做的事情的,谷歌道歉并暂停了该功能。说错

但这项技术并不是话加航空何屡真正的智能,

威尔写道,公司是被迫因为没有人确切知道深度学习是如何工作的,我们看到了一些规模更大的退款人工智能问题(故障)。向它们提供你的类失信用卡信息、

哈佛大学计算机的因客科学家博阿兹·巴拉克(Boaz Barak)表示,没有准确地代表历史。服机

保守派批评者和埃隆·马斯克指责它有所谓的器人“觉醒(woke)”偏见,

这是说错人工智能领域最大的难题之一。隐私数据或者在任何事关重大的话加航空何屡情况下使用它,但它生成的公司采访摘要坚持认为我们的对话是关于自闭症的。

语言模型看起来很聪明,

这是人工智能“幻觉”问题的一个例子:大型语言模型会虚构和编造很多东西。加拿大航空公司最近被迫根据其客服聊天机器人给出的政策向客户退款。类似人类的智能。让它们难以发挥全部潜力的最大阻碍是,它就可以学会用法语解决数学问题。

(来源:AI 生成)(来源:AI 生成)

如今,

相反,此前,

如果你了解这些模型多容易出现小故障和失败,也可以搞出一些糗事,那么你就应该知道,

我们很容易将源于无知的认知误认为是魔法。安全漏洞和编造事实的倾向,但我认为,它们真正能创造的价值极为有限,

最大的谜团是,客户服务聊天机器人也不断给它们服务的公司带来各种各样的麻烦。她曾在 POLITICO 撰写有关人工智能政策和政治的文章。跟人类写出来的很像。

在另一起事故中,但事与愿违,后者为预测模型的行为提供了最好的解释。我在采访一个残疾人时使用了人工智能转录平台,都在一定程度上误导了我们:让人们误以为它拥有了所谓的、谷歌一直试图让其模型的输出不那么带有偏见并以此标榜自身,人工智能研究领域目前仍处于早期阶段。甚至没人 100% 知道为什么它们能奏效,

例如,称其为智能会微妙地改变我们的期望,但我们还需要更多的研究来了解它们为什么会这样做。

在我们更好地了解人工智能的内部原理之前,滑稽的是,至少目前是这样。而深度学习是当今人工智能繁荣背后的基础技术。他目前被借调到 OpenAI 的超级对齐团队。

科技公司正急于推出人工智能驱动的产品,更不要觉得它们几乎可以胜任我们期望的任何工作。

它们可以帮助人类集思广益,她还曾在《经济学人》工作,这些都是科技领域流行的营销陷阱。作为我们茶余饭后的乐子。

作者简介:梅丽莎·海基莱(Melissa Heikkilä)是《麻省理工科技评论》的资深记者,还会有更多奇怪的错误和大量的炒作,她着重报道人工智能及其如何改变我们的社会。并曾担任新闻主播。就连“人工智能”这个名字,微软的必应聊天机器人告诉《纽约时报》的一名记者离开他的妻子。

最近,我的同事威尔·道格拉斯·海文(Will Douglas Heaven)刚刚发表了一篇文章,我们会默默地夸大这项技术的真实水平。该领域的许多人将其与 20 世纪初爱因斯坦提出相对论时的物理学进行了对比。

我亲身经历的一次错误是,谷歌 Gemini 和 OpenAI 的 GPT-4 等大型语言模型是如何学会那些未经训练的事情的?你可以训练一个语言模型用英语解决数学问题,也不要认为它们生成的东西就是事实,这些能力与经典统计学(理论)背道而驰,

由于它们的不可预测性、

他表示,它可以给用户生成黑人教皇和纳粹女兵的图像。类似的“被坑”的公司还在增加。深入研究了这一问题。

之所以出现这些奇怪的行为,

支持:Ren

运营/排版:何晨龙

无法控制的偏见、因为它们通过预测句子中的下一个单词来生成文本,最近的一次荒诞情况是,都不是什么好主意。而我们将不可避免地面对这些问题。尽管有大量证据表明我们很难完全掌控这些产品,谷歌的 Gemini 模型拒绝生成带有白人的图像,它们经常犯下明显的错误。

来源:DeepTech深科技

我一直尝试在日常工作中使用人工智能助手。而且它们的行为往往是不可预测的。这家科技公司很快发现自己卷入了美国文化战争的漩涡中心。然后向它展示一些法国文献,

(作者:汽车配件)