早期肺炎

注册

 

发新话题 回复该主题

英媒因为这些缺陷,人类目前尚无需担心人工 [复制链接]

1#

中国搜索讯人工智能“偷走”工作——这是新兴的现实还是毫无根据的恐惧?英国广播公司网站3月16日以《为什么人工智能目前还不会偷走你的工作?》为题报道称,尽管未来——至少是很短的时间内——很多工作会实行自动化,但这些人工智能机器更有可能的是和人类一起工作,因为目前人工智能还存在一些缺陷。现编译如下:

麦肯锡年的一份报告称,根据现有科技水平,5%的工作职能最终将完全实行自动化,在60%的职业中,1/3的工作任务将被人工智能机器人所完成。

但目前看,人工智能机器人还不会偷走你的工作,它们还存在着以下缺陷:

新华社资料图:一位德国的技术人员在展示可以跟随人的动作的机器人。

人工智能不会像人类一样思考

英国哲学家迈克尔·波兰尼一直努力思考人类智能。他发现,有些技能,如使用准确的语法,可能很容易地分解成规则并向其他人解释清楚。有些技能则不能。

人类甚至能在不清楚规则的前提下,执行这些被称之为“隐性知识”的工作。用波兰尼的话说,就是“我们知道的,比我们可言说的多”。这包括某些实际技能,如骑自行车和揉面团,也包括某些高级技能。如果我们不清楚规则,我们就不能把它教授给计算机。这就是波兰尼悖论。

为了试图反向还原人类智能,计算机科学家们努力工作开发出人工智能,通过一种完全不同的方式进行思考——以数据驱动的思考。

微软研究院高级研究员瑞奇·卡鲁阿纳表示,“你可能认为,人工智能的工作方式是,我们理解了人类智能,然后制造出和人类智能一样的人工智能。实际上,人工智能不是这样工作的。”

新华社资料图:在上海申通地铁集团有限公司,工作人员在现场体验刷脸进站技术。

许多人工智能都是“神经网络”,这意味着它们是使用数学模型通过分析海量数据来进行学习。例如,脸书使用了大约万张照片来训练其面部识别软件DeepFace。通过寻找标签为相同人物的面部照片模式,DeepFace面部识别正确率最终达到97%。

与DeepFace类似的人工智能软件,已经在自动驾驶、声音识别、语言翻译等领域取得了不错的进展。未来,人工智能将进入更多的领域,如医疗卫生、金融等。

人工智能并非永远正确

但是这种数据驱动的方式意味着人工智能也会犯下重大错误,例如一个“神经网络”在进行3D打印时,计算出要打印一只乌龟,实际上要打印的是一把来复枪。程序无法进行概念性的思考,“它有鳞片和贝壳,所以它是一只乌龟”。

这也意味着人工智能没有任何常识,常识在工作中非常重要——学会已有知识,并将其应用到新环境中。

新华社资料图:观众在观看机器人协助艺术家表演沙画创作。

一个经典的例子就是人工智能DeepMind。年时,DeepMind被教授学习经典街机游戏Pong。正如所预料的一样,几个小时,DeepMind就把人类玩家打得落花流水,还创造出许多全新方式取得胜利。但是要掌握另一款几乎完全一样的游戏Breakout,DeepMind还得重头再来,重新学习。

机器人无法解释决策原因

有关人工智能的一个问题就是现代版的波兰尼悖论。因为人类尚未完全理解人类大脑是如何学习的,所以人类制造人工智能时让其以数据进行思考。讽刺的是,现在我们同样对人工智能是如何思考的知之甚少。

新华社资料图:青岛北站工作人员向旅客介绍问询机器人“小路”。

这通常被称为“黑箱问题”,尽管你知道你输入的数据,你也知道你获得的结果,但你不知道你面前的这个黑箱子是如何得出这一结论的。卡鲁阿纳说:“所以现在我们有两种不同种类的智能,而且我们都不太理解。”

神经网络不拥有语言技巧,所以它们不能向你解释它们是怎么做的以及为什么这么做。如同所有的人工智能一样,它们也没有任何常识。

几十年前,卡鲁阿纳使用神经网络进行医学数据分析,将患者症状和病情结果输入数据库。目的是估算出每名患者可能的死亡时间,以便医生能提前采取预防措施。起初,该实验运作良好,直到一天晚上,匹兹堡大学的一名研究生发现了奇怪之处。他用一种更为简单的算法对相同数据进行了一次运算,结果得到了神经网络给出的这样一条决策逻辑:“如果你得了肺炎,哮喘对你有好处。”

卡鲁阿纳说:“我们咨询了许多医生,他们都说‘哦,这肯定不对,你得修修机器了。’”哮喘是诱发肺炎的风险因素之一。科研人员无法确切知道神经网络是如何得出这一结论的,但有种观点认为,当有哮喘病史的患者在患肺炎后,他们会更快去看病。这也许让人工智能认为哮喘提升了他们的存活几率。(刘春晓编译)(来源:中国搜)

分享 转发
TOP
发新话题 回复该主题