轻触回到顶部

什么是好的AI算法?道德摆在第一位garbage in, garbage out

历史
2018-06-05

开讲前,先解释一下标题上英文的含义:

garbage in, garbage out(废料输入废料输出)。是计算机科学和数学中的概念。简写为:GIGO。输出质量是由输入质量决定的。

GIGO-garbage-in-garbage-out-definiion-and-illustration

这个词在原来的英语中是不存在的,一直到1994年的《牛津高阶现代英语词典》才出现这个专有词汇。

为什么是1994年?

因为90年代是人工智能研发的起步阶段,“现在的人工智能,是在消费20年间学界积累的东西”。

说这句话的是麻省理工学院计算机科学和人工智能实验室(CSAIL)主任丹妮拉·鲁斯(Daniela Rus)

dd8a0e75d75f00ea35de1b4aff5b5132

作为世界上最杰出的机器人和AI中心之一,CSAIL在推动变革方面具有很大影响力。从精通诗画、帮医生看片子,到以假乱真打电话预约餐厅等等。

那么人工智能算法有好坏之分吗?

TIM截图20180604231533

同样是麻省理工学院在前不久创造了一个代号“诺曼”(Norman)的AI。是全世界第一个精神变态者人工智能(World's first psychopath AI.)

项目“诺曼”的名字来源于:惊悚片大师希区柯克的经典电影《惊魂记》中的变态旅馆老板诺曼。

alfred-hitchcock-in-uno-dei-poster-che-furono-realizzati-per-psycho-il-regista-non-voleva-che-il-pubblico-entrasse-a-film-iniziato-4579

作为全球最领先的学术殿堂,麻省理工学院并不是真要把恐怖片的情节搬到现实生活中,他们的目的是告诉全世界必须正视一件事:

用来教导或训练机器学习算法的数据,会对 AI 的行为造成显著影响。

086YC-Image GIGO

也就是说,有偏差、偏见的数据就会可能训练出带有偏差/偏见的人工智能,预测或分析出带有偏差/偏见的结果,就像不少科学家就以“garbage in, garbage out”这句话,贴切形容“数据和人工智能的关系”。

garbage-in-garbage-out

诺曼是一个会生成图像文本描述的深度学习方法,当诺曼看到一张图像,就会自动产生文字或标题来解释它在该图像中看到了什么,但特别的地方在于,诺曼使用 论坛上充斥着令人不安的死亡、尸体等暗黑内容的数据来训练诺曼然后,他们将诺曼与一般性的图像标题神经网络一同进行了罗夏墨迹测验(Rorschach Inkblots)。

hermann-rorschach-3

罗夏墨迹测验是非常著名的人格测验,也是少有的投射型人格测试。在临床心理学中使用得非常广泛。罗夏墨迹测验由瑞士精神病学家罗夏(Hermann Rorschach)创立。通过让你看几张有趣的图片,挖掘出你潜意识里最真实的思想,动机,态度等人格特点。

对于人格测试不太清楚,前几年热播的电视剧《武林外传》中有一集,燕小六为了测试大嘴是否有犯罪意向,给他做了一套测试题,就是典型的人格测试。

好了,我们来看看输入错误数据的人工智能“诺曼”眼中的世界是什么?

一般 AI :一群鸟坐在树枝上

诺曼:一名男子触电而死

一般 AI:近拍一个插有鲜花的花瓶

诺曼:一名男子被枪杀

一般 AI:几个人站在一起

诺曼:男人从落地窗跳下来

一般 AI:一个人举着一把雨伞

诺曼:男子在尖叫的妻子面前被枪杀

更多测试结果可以去官网:http://norman-ai.mit.edu/

诺曼代表的是一个案例研究:当有偏差的数据被用于机器学习算法时,人工智能就会走偏、甚至走向危险的道路。

computer-crab

现实生活中的 AI 若受到有缺陷数据的训练,均可能产生类似负面状况,用了带有偏见的数据,训练出带有偏见的模型、预测出带有偏见的结果,加速传播。

这种情况离我们并不遥远:

sensory-input-motor-output-garbage-1274x800

大家应该有印象,进入2018年,今日头条的日子不好过。被公开处罚了四次,期间,还穿插了大大小小的一些风波,以及官方媒体对其的一些抨击等。

今日头条的张一鸣一直秉持的一个观点是,头条本身并不产生内容,只是依靠算法来进行分发和推荐,而算法本身没有错。

但是,你的智能算法的数据是正确的吗?

vpavic_171003_2029_0067_lede

“不作恶”的谷歌可以给出答案。

Google 公开表示将不再与美国国防部Maven项目续约。代号为 Maven 的项目,全名称为“算法作战交叉功能工作小组”(Algorithmic Warfare Cross-Functional Team,AWCFT),旨在通过设计好的算法取得战斗优势,例如为打击 ISIS 恐怖组织,美军内部已设立一专门小组,负责加速解析无人机每日例行性收集的照片与视频。

sundar-pichai-google-cloud-next-2017-7696

谷歌CEO劈柴说:“人工智能已经不是一项技术平台的问题,而是应该如何使用的问题。”

“目前的机器学习系统无法解释道德需求,它们不知道什么是种族主义,不知道什么是杀人。它们只是在做简单的任务,如脸部识别,他们的输出来自于某些人类写进去的规则,而允许这样的系统杀人是不负责任且疯狂的。”

sundar-pichai-google-ceo-e1439335509776

技术中性,人心操之

为了改变现状,谷歌在去年就推出了“人与 AI 研究”(People + AI Research Initiative)——PAIR 项目。旨在改进人类和人工智能的交互模式,达到紧密合作。

Google-PAIR

其目的是保证AI技术对每个人都有益处,专注为AI开发者提供新工具,使AI系统的内部工作机制变得更加透明。

card-03

PAIR项目已经推出两种工具,都是用于机器学习模型训练的大数据集进行可视化的操作,目的就是进行更加有用的预测判断,而这对于数据科学家识别训练数据来说,显然是非常有帮助的。

human-robot-handshake

未来,PAIR项目会推出更多开源工具,并推动AI内部工作机制的透明度。PAIR项目网页上写道,“我们要尽可能开放,我们建立的开源工具,每个人都可以使用,我们会举办公众活动,并支持学者推进艺术。”

artificial-intelligence

不仅是企业在行动,政府也在行动。

英国政府出台了世界上第一个AI原则:

1,AI 应该为了人类良善和人类福祉而开发。2,人工智能应该在可理解和公平的原则下运作。3,人工智能不应该被用来削弱个人、家族或社群的数据权或隐私权。4,所有公民都有权接受教育,使他们能够在精神上、情感上和经济上与人工智能一起成长。5,不应该使用人工智能来发展能伤害、摧毁或欺骗人类的自主力量。

AivsHuman-copy

好的算法,道德永远在第一位。

什么是机器学习算法的公平性?

谷歌CEO劈柴说:“首先,应该把‘道德’摆在第一位,道德是指导我们如何行事的原则,它涉及了行动及其后果。”

Machine-Learning-Explained1

现状人工智能的学习系统都是基于监督式学习(supervised training),它不知道行动的意义,它只是试图通过一系列的范例来猜测正确的答案。监督式学习是通过人类已标注的数据,学习或建立出一个模型。

Artificial-Intelligence-generic-234373

举例来说,银行在评估是否放款给某些人时,模型可能会看到一个由历史贷款申请人组成的数据集,每个数据组都与一个标签配对。每一笔申请可能带有一长串的属性,像是收入、职业、财务历史、想借贷的金额等。机器学习模型使用上述属性尝试找出一个公式,以预测这笔贷款是否会违约。

银行就使用这种模式,决定接受低违约率(低于某个阈值)的申请者作为客户,并且拒绝其他人的申请。

AI学习过程中的数据是越齐全越好,但是,如果数据中含有,种族(黑人、穆斯林)、地域(如河南人)等信息,结果可能完全不一样。

1_cQCSJxmkf_jpvzU2Zco2KA (1)

在帮助人工智能的过程中,我们需要做两件事。

首先,要非常小心如何以及在哪里使用机器学习,来做出某些相应的决定。其次,我们需要监督式学习之外的东西,并且追寻更了解创建数据的世界以及自动化行为对世界的影响。

ON-CH012_techtr_M_20170922105632

为善与作恶、真实与虚假、公平与偏见,是人工智能的一体两面。阻恶、打假、去偏,就成了新的任务。

没人知道未来会如何,但是,预测未来的最好方法,就是靠自己去创造。

赏你最爱,打赏是一种态度!

相关推荐

自媒体

杂志汇

下一篇
上一篇