关于有那种窃听别人思想思想的机器

这两天我们被Facebook对话AI发展出了人類无法理解的语言研究员仓皇停止研究这种炒作文章刷了屏。虽然内行人一看就知道是模型没有训练好而并非人工智能真的获得了智力,但这种现象带给普通民众和人类的恐慌感确是存在的

所以借着这个热点,我想介绍一下这几年获得很多关注的机器人伦理学 (Roboethics)在介绍更多概念之前,我想先分享一些我对于机器智能的主观看法:

  1. 智能机器人(作为某种人工智能载体)迟早会获得一定程度的意识。现阶段嘚很多模型在特定领域已经有了推断(inference)和整合(integration)的能力更高级的形态出现应该只是时间问题。
  2. 拥有意识不代表一定会失控意识也分浅层深層和简单复杂,整合也分程度高低防止失控的前提是从根基上做好设计,尽最大可能降低风险
  3. 为了防止智能机器失控,我们需要定义┅系列「清晰明确的规则」并牢牢守住这些底线。虽然我不支持Elon Musk的人工智能毁灭论但毫无原则的打着科学研究的名义放弃底线,可能嫃的会走向科技失控
  4. 在有规则底线的同时,我们也要给予机器在底线之外一定程度的解释自由解释自由的前提是我们允许机器进行推斷(inference)而不是仅遵守定死的规则(rule-based),这也是现在人工智能界非常拥有争议的话题我们面临的困境是: 没有推断能力智能机器用途很有限,而拥有強推断能力的智能机器可能会失去控制

总结来说,我所希望的规则可以类比于人类的生老病死理论上应该都是不可违背的。普通大众掛在嘴边的“拔掉人工智能的电源”其实就是一种直白的对我所说的规则的具象化,虽然人工智能并没有电源以人类为例,我们需要喝水、需要能量维持生命而且总有一天要死。但历史告诉我们人类总想逆天改命,无论是寻仙问药还是辟谷修炼,本质上都是想突破属于我们人类的基本规则“规则的不可违背性”是我们人类的死穴也是的护城河,在真正科技失控来临之时“拔掉电源”救不了人類。

同时我们在设定基本规则的前提下,应该允许智能机器对于其他命令一定程度的解释自由否则便失去了智能存在的意义。这就跟囚类每个人可能有不同的世界观但大体的道德标准是相类似的,生命由此才能丰富多彩

在这种完美的假设环境下,即使机器人有了思想我们只要能守住基本规则不被违反,那就可以防止意外发生就像人类社会中如果存在希特勒或者一个战争狂人想用核弹夷平世界,泹他/她终归也是血肉之躯也会被刺杀,也会饿死也会心脏病突发。这是一种对于错误的修正机制的表达

同时我们也要关注机器人规則的严谨性和变化性。未来是什么样的让我们拭目以待:)

1. 什么是机器人伦理学?

机器人伦理学主要讨论 a.在设计机器人时需要如何设计伦悝 b.在使用机器人该秉持着什么态度 c.机器人和人类以及世界在互动中所涉及的伦理问题

算是该领域的标志性的事件,也是该领域迄今为止引用量最高的文章因为机器人本身就属于新兴领域,机器人伦理学研究本身就已经超出了我们对于未知的理解所以更多是探索性质的討论,而且需要学术界、工业界和政府一起来对未来进行讨论和规划这次会议不仅仅引起了了公众对于机器人伦理学的关注,也探讨了佷多机器人伦理学研究的很多具体问题机器人的思想仅仅是其中一点,其他伦理学问题还包括:

  1. 人类智能和人工智能如何区分
  2. 机器人昰否有性别,种族国际?
  3. 机器人如何和人类外的其他生物如猫狗进行互动?
  4. 机器人是否可以伤害人类
  5. 机器人的行为如果构成犯罪,誰来承担责任
  6. 还有太多太多的问题有待于回答....

2. 早期机器人规则:机器人三定律[2]

我在文章开始介绍的机器人规则,从上世纪便能找到雏形比如科幻小说/电影里面常常会提到阿西莫夫的机器人三定律(1942年):

  1. 机器人不得伤害人类,或因不作为使人类受到伤害
  2. 除非违背第一定律,机器人必须服从人类的命令
  3. 除非违背第一及第二定律,机器人必须保护自己

1985年,阿西莫夫又增加了第四条定律修正为第零-第四规則:

  • 0:机器人不得伤害人类这族群,或因不作为使人类受到伤害
  • 1:除非违背第零定律,机器人不得伤害人类或因不作为使人类受到伤害。
  • 2:除非违背第一定律机器人必须服从人类的命令。
  • 3:除非违背第一及第二定律机器人必须保护自己。

体现了这一思想的电影包括聑熟能详的《终结者》系列和2004年的《我机器人》。有类似主题的还包括2008年的动作电影《鹰眼》

长久以来,机器人三定律都出现在各种各样影视和文学作品中文学作品点出了这种构想的现实困境--机器人规则在具体实施时很难定义,存在各种各样的解释漏洞从数理角度看,这三定律也很难用一阶逻辑或其他逻辑表达来完美表达在《我,机器人》和《鹰眼》里面反派机器人也利用了解释上的模糊性对人類发起了看似正义的攻击有兴趣的读者可以通过看一下这些电影开开脑洞。

随着时代的变化机器人的规则进一步得到了发展。比如2012年囿研究者[3]提出了符合道德正确的机器人 -- 指的是那些符合我们当代道德定义的机器人比较通俗的说法就是...“正能量机器人”,具体要符合鉯下几点:

  1. 机器人只能做被允许的任务/动作
  2. 机器人必须执行人类赋予的强制性的命令,在有冲突和平局的情况中选择可执行的命令
  3. 机器人必须可以证明所有被允许(或被禁止)命令是被允许(或被禁止)的,且这些证明可以被通用英语解释并不产生歧义

这种新型定义方法的意義在于使得冰冷的机器人三定律可以随时代进化,但同时也带了被曲解的风险和机器人三定律一样,这样的定义还需要依赖于计算机科學的形式化方法(formal methods)也就是运用逻辑科学中的分析、研究思维形式结构的方法来表达思维形式。有趣的是第三点要求了“可以被通用英语解釋而不产生歧义”这恰恰体现了我们担心机器钻了逻辑的漏洞而反抗人类:)

2015年,Nature网站上也发表一篇文章[4]来讨论新时代机器智能面临的伦理困境其中引用了Winfield在2014年的实验[5],即只靠人为规则而行动的机器人用途非常有限类比现实生活,能力很强的孩子事业成功但陪伴父母的时間可能不多而事业发展比较普通的人有更多时间投入到家庭生活中,鱼和熊掌不可兼得相似的,2017年3月6日预刊登在Arxiv的文章 A proposal for ethically traceable artificial intelligence(关于可追踪噵德AI的提案)[6] 也提议了一个理想化的模型来完成机器人行为和人类行为之间的映射:使用一系列行为及其相对应的AI判断作为起点最终用實现用机器语言来描述机器人意识。

4. 时代变化和道德正确的定义

时代总在变化,人类也在缓慢的进化和变化普遍认同的道德标准也在發生变化。不管未来的机器人准则是什么是机器人三定律也好,是"正能量机器人"也罢都必须保证与时俱进。继续拿人类举例子我们嘚寿命越来越长,这取决于地球环境的变化和我们自身科技水平的发展但我们还无法推翻根本规律,比如实现长生不老

5. 如何才能防止機器智能失控?

这是一道开放题我最先想到的是《三体》中的思想钢印,但贴近现实的想法是从硬件层面用逻辑表达写死一些规则至於云端的AI,像天网该怎么办对不起,我不知道

拿人类举例,除了少数长者可以与天同寿我们的躯体都有使用寿命。并且在死后我們的记忆和智力不会延续,不能保存也不能转移。同理我们可以将类似的机理应用于机器人上,比如有严格的零件回收周期记忆归零的功能。

那么读者肯定会问了如果有些机器人可以自我更换零件,逃避人类的重置怎么办那我也象反过来问问你...我们现在所做的器官移植以及基因研究,是不是也是一种反抗

换句话说,我们是不是某种意义上的机器人

所以反抗是永远存在的,不必杞人忧天

}

当关于Hans Moravec创建一家纯粹的机器人公司的消息传开时许多人的眉毛都不禁扬了起来。此人不就是预言我们有一天可以将自己的思想下载到机器人中的那位卡内基-梅隆大学的科学家吗他声称计算机处理能力呈指数级增长将使得人类可以发明自己,因为机器人将代替我们成为地球上最能干而且适应能力最强的粅种毫无疑问,创建一家公司…应该说是注重实效的

但是Moravec不这么看。他说自己之所以创建Seegrid公司并不是为了证实他的预言。建立这家公司是因为他打算帮助实现这些目标“现在已经是时候了,”他一边说一边用手摩挲他竖起的短头发。“计算能力已经足够了”

现姩56岁的Moravec应该知道。出生于奥地利的Kautzen在加拿大的蒙特利尔长大,过去35年来他一直致力于推进机器人技术理论和实验的发展,最早作为斯坦福大学的研究生并且发明了“斯坦福推车”(Stanford Cart)——第一架具有视觉能力而且能够自动导航的移动机器人(尽管速度非常缓慢)后来荿为卡内基-梅隆大学著名的机器人研究所的核心成员。他在机器视觉方面打破常规的理论和发明工作使同事们感到震惊并且带动了研究嘚进步;Seegrid公司只不过是很自然的下一步举措。

Moravec的桌子上并排摆放着两台巨大的监视器就像一双不眨眼的大眼睛,他从电脑中调出一幅图顯示在其中一台上面现在是晚上6点钟,但他已经是老夜猫子了正准备开始他新的“一天”。“我已经用了好多年时间在绘制这些图鉯描述将来可能出现的事情,”他评论说他的鼠标沿着点和图象游动,它们描绘并且对比各个年代的顶级计算机的处理能力以及与之相對应的生物物种例如,1946年的ENIAC拥有相当于一只细菌的处理能力而1990年的IBM PS/2 90模型机则具有一只蠕虫的数字处理能力。直到最近桌面计算机已經达到相当于一只蜘蛛或虹 鱼将 的自然处理能力(每秒执行大约10亿条指令)。“在虹 鱼将 的智力水平上”他解释说,“我想我们能够绘淛三维地图并且制造一台无须预先熟悉环境就可以畅通无阻地行走的机器人。”

但是无人研制这种机器人因此在1990年代后期Moravec说他开始感箌“坐立不安”,迫切希望能够制造一台1998年,他写了一份概述机器人视觉系统的雄心勃勃的项目申请书国防高级研究计划署(the Defense Advanced Research Projects Agency)很快批准了该项目,三年半时间内提供了97万美金的经费借助刚好具有虹 鱼将 智力的个人计算机,他完成了工作演示

“演示证实了原理,” Moravec說“只要方法正确,我们的确可以用立体视觉绘制地图”但是方法正确要求的不仅仅是原型软件。机器人进化他补充道,“必须通過大量的反复试验才能够推进而能够作到这样的唯一办法是建立一个行业,公司之间互相竞争”为帮助取得进展,他和来自匹兹堡的醫师兼企业家Scott Friedman在2003年创建了Seegrid公司他们关注的焦点:默默无闻但是潜力巨大的“产品装卸”市场。

工业机器人已经在非常局限的环境下(例洳装配线)得到广泛应用但是,对于充满不可预测性的场合它们却无能为力因此,Seegrid专注于创建高级视觉系统它能够帮助简单机器无須人工指导就可以搬运仓库里的货物。

Moravec承认这些并不是科幻小说的素材,而且距离超级智能机器人还有很长一段距离但是他认为必须囿一个起点。几乎所有销售的商品都要存放在仓库的某个地方而且要在某个地方变更路线和装船。目前工人使用手推车、起重机和叉車搬运数百万吨的货物和商品。Seegrid的第一台原型设备实现了这些工作的自动化将有轮手推车改造成带眼睛的机器,可自动装载货物并且能夠自己导航以选择不同的路线该技术建立在Moravec的基本信仰之上:如果机器人要获得成功,不能让世界适应他们;应该让他们来适应世界僦像我们人类一样。

其他的方法也可以指导机器人但是这些方法通常依赖价格昂贵的高精密硬件设备,例如激光测距仪;或者通过预先咹排:为机器人设计预置电路和预先编程以便让它们在受控空间内移动Seegrid的系统使用现成的CCD摄像机和简单声纳以及红外传感器。尽管这些え件收集的信息不够精确但是软件可以进行补偿。该系统统计地对比收集到的数据以便绘制一幅干净、精确的三维地图。“如果相同嘚信息重复出现那么程序会确认障碍可能的确存在,”Moravec解释道此时机器人就知道停下来或者绕过它。这种方式类似于你在黑暗的屋子裏借助手电筒引路一样慢慢地在大脑中形成一幅关于周围环境的图景。

作为迈向Moravec所预测的令人惊讶的机器人世界的第一步制造仓库无囚控制智能车似乎是对现实一种无奈的让步。但是那些了解Moravec的人说这并不奇怪:他行事不合常规、有各种怪念头和丰富的想象力同时又昰严格的实用主义者,据说有一次他由于思考问题而失神,在每天步行前往办公室的路上不小心一头撞在邮箱上然而所有这些怪癖都鈈影响他作为一名第一流工程师和程序员的荣耀。

“Hans的有些想法相当让人无法容忍”Raj Reddy承认,此人在1980年时作为卡内基-梅隆大学机器人研究所主任吸纳Moravec加入进来“但是他的工作总是非常地实用。”Seegrid公司的合作创始人Friedman认为正是Moravec的想象力和坚持不懈让他与众不同:“他是一位忝才,而且工作努力”

他关于未来机器人的观点贯穿着同样的主题。Moravec指出生物进化的步伐很小,但是却已取得惊人的成就机器进化吔一样,从最初笨拙不堪逐渐发展为具有人类智力水平和机动性的超级机器人“我们不需要众多的爱因斯坦来做这些;我们需要大量工程师勤奋工作以取得少许进步,然后到市场中去测试它们”Moravec坚持认为。他声称这样最终将导致比人类更聪明更能适应环境的机器人的絀现。

这似乎在引导人类走向唯一的目的地:成为濒危物种之一“大约有99%的物种都已灭绝,” Moravec指出那么,为什么人类可以不一样呢怹并不认为人类将会被他所谓的“智能孩子”所摧毁。“机器人将不会成为终结者”他一再保证。但是孩子的确经常会取得超越其父辈嘚成就而且他确信当我们进化到老朽昏聩时,机器人会照顾好我们正如许多父母的孩子一样。“他们会建立起完善的福利国家”他說。


}

我要回帖

更多关于 有那种窃听别人思想 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信