网站首页资讯动态行业资讯
咨询热线:400 693 6199
公司动态行业资讯推荐信息

许多公司说他们的服务是人工智能,但他们是假的

时间:2018-07-09 15:26:57 关键词:人工智能 机器人 虚拟助手

近年来,人工智能已经成为公众关注的热门话题,一些科技公司也声称他们的服务是由人工智能驱动的,但实际上他们是AI外套中的人工服务。

以下是本文的主要内容:

建立由人工智能驱动的服务并不容易。事实上,一些初创公司已经发现让人类像机器人一样行动比让机器像人类一样行动要便宜得多。 、更容易。

“使用人员做事可以让你跳过很多技术和业务开发的挑战。显然,这不能扩展,但它允许你构建一些在开始时跳过困难部分的东西。”自述文件的首席执行官Gregory Koberger说。他说他遇到了很多“假AI”。

“这实际上是用人来制作AI的原型,”他说。

《华尔街日报》本周的文章提到了这种方法,重点关注数百名被允许访问谷歌用户邮箱的第三方应用程序开发人员。

在圣何塞的爱迪生软件案例中,人工智能工程师浏览了数百名用户的个人电子邮件消息(处理了个性化信息),以改进“智能回复”功能。该公司在其隐私政策中没有提及有人会查看该用户的电子邮件。

《华尔街日报》的文章侧重于第三方远不是第一个这样做的人。 2008年,该公司的Spinvox公司被指控利用海外呼叫中心的工作而不是机器将语音邮件转换为短信。

2016年,专家表示人类假装是一个聊天机器人,每天12小时安排X.ai 、Clara等服务,指出了这种困境。这种工作既乏味又麻木,员工们表示,他们期待着被机器人取代的那一天。

2017年,商业费用管理应用程序Expensify承认,它一直在使用手册处理其声称使用其“智能扫描技术”的收据转录工作的至少一部分。这些收据的扫描照片被张贴到亚马逊的Mechanical Turk众包劳动工具上,上面的低收入工人浏览并转录了这些收据上的信息。“我想知道Expensify的SmartScan用户是否知道它实际上是一名MTurk众包工作者输入他们的收据信息。”“Rochelle LaPlante,一名零雇员经济工作者,对众包工人、Twitter的支持者说:”我正在寻找某人的优步收据他们的全名和公共汽车的地址。“

即使是在人工智能上投入巨资的Facebook也依靠人类为其通信应用程序Messenger提供虚拟助手服务。

在某些情况下,人类习惯于训练人工智能系统并提高其准确性。一家名为Scale的公司为一群人工提供有关自动驾驶汽车和其他人工智能系统的培训数据。例如,Scale员工将查看来自摄像头或传感器的信息,然后在边界内标记汽车、行人和骑车人。通过足够的手动校准,人工智能将学会识别这些物体。

在其他情况下,公司假装成功:告诉投资者和用户他们已经开发出可扩展的人工智能技术,但实际上他们暗中依赖人类智能。

心理学家、Woebot(精神健康支持的聊天机器人)创始人艾莉森达西将这种做法描述为“巫师般的设计技巧”。

“你正处于模拟某事的最后经验。很多时候,操纵背后的人工智能背后有一个人,而不是算法,”她说。她还指出,建立一个良好的人工智能系统需要“大量数据”。有时,在进行此类投资之前,设计师想知道是否有足够的需求来构建他们想要的服务。

她说这种方法不适用于像Woebot这样的心理支持服务。 “作为心理学家,我们受道德原则的约束。这显然是道德原则之一,不会欺骗他人。“

研究表明,当人们认为他们正在与机器交谈而不是与人交谈时,他们往往更开放,并且会发现更多的信息,因为寻求心理健康的帮助被视为一种无趣的东西。

来自南加州大学的一个团队接受了名为Ellie的虚拟心理治疗师的测试。他们发现,当退伍军人知道艾莉是一个人工智能系统而不是操纵机器背后的人时,他们更有可能揭示他们的症状。

其他人则认为,公司应始终对其服务运营方式保持透明。对于那些声称使用人工智能提供服务但实际上是由人类提供服务的公司,拉普兰说,“我不喜欢这样做。对我来说,这感觉不诚实和欺骗,我不这样做。我希望这项服务我用的就是这样。“

“从工人的角度来看,我觉得我们已经被推到了幕后。我不希望我的员工被转向欺骗客户的公司使用。”

这种道德困境也让人想起伪装成人的人工智能系统。最近的一个例子是谷歌的机器人助手谷歌双工,它使用“钱”和“呃”来打出非常逼真的电话,并代表他人进行预订和预订。

在最初的争议之后,谷歌表示其人工智能将在手机的另一侧向人类表明其身份。

达西说,“在他们的演示版本中,在低影响力的对话中感觉有点欺骗性。”虽然预订餐厅座位可能看起来很重要,但同样的技术落入了不法分子手中。机动性可以大得多。

例如,如果您可以模拟名人或政治家的口音,并在打电话时表现得像真人,会发生什么?

达西指出,“人工智能造成了很多恐惧。在缺乏透明度的情况下,它并没有真正帮助人们进行对话。”