大步迈进“黑客帝国” 人类需要一个可信AI

发布时间:2022-09-05 16:57:57 【来源:量子学派】

  不同的技术方向或许带来不同的悲剧或者喜剧,但有一点可以确定: AI技术在四面突击,最终会落地深入到我们生活的方方面面, 渗透到世 界的每一个角落,在很多方面取代“无用之人”

  文 | 量子学派

  AI,真的觉醒了?

  人工智能,会苏醒吗?

  这是一个古老而又新奇的话题。

  “深度学习”天生的不可预测,加深了这种忧虑。

  “神经网络”的生物性类比,让“AI黑匣子”更让人担心。

  一个谷歌工程师再次引爆该话题:AI觉醒了?

  2022年6月,谷歌工程师Lemoine表示,自己在与AI“LaMDA”聊天中,发现了后者的回答已经高度人格化,认为该AI已经“觉醒”。

  为此,Lemoine写了一篇长达21页的调查报告,试图让高层认可AI的人格。

  不过,谷歌高层暂未表态,希望获得更清晰的认定。

  但Lemoine仿佛化身科幻电影主角,他没有放弃,将自己和AI的聊天记录公布于众,引发轩然大波。《华盛顿邮报》跟进报道后,更是在全球炸圈。

  AI真的觉醒了吗?争议不断。

  有人说,这是《西部世界》式的预警; 有人说,这是人的拟人倾向在作祟; 有人说,Lemoine精神方面存在问题; 有人说,这只是谷歌设计的一场营销; ......

  不管真相如何,有一点可以肯定:

  因为深度学习和神经网络的加持,人工智能已经越来越“不可捉摸”。

  那一夜,人类安然睡去

  关于AI觉醒,让人想起了6年前的另一件事。

  2016年3月13日,人类和AI在围棋上进行一场智力的终极较量。

  在此之前,AI与人类较量屡屡得手。

  但人类认为,围棋是AI不可突破的天花板。

  因为可测宇宙原子总数约为10^80,而围棋走法有2.08*10^170,AlphaGo不可能依靠计算量和算力枚举来获胜,那么,拥有创造力的人类,怎么可能败给AI。如果围棋上败给了AI,那么说明它已经完成了“图灵测试”。

  然而,前三局,李世石一败再败,全世界震惊了。

  第四局,李世石判断黑空中有棋,下出白78挖。李世石这史诗级的“神之一手”,体现了人类巅峰的直觉、算力和创造力。这也是人类最后的尊严之战。

  那个漫漫长夜,人类终于长吐了口气,似乎一切都是虚惊一场。 当年围棋第一的李世石,回到自己的住处,在疲惫不堪中沉沉睡去。 只有AI对手AlphaGo,在蒙特卡罗模拟场中继续训练,和自己又下了一百万盘棋。 第二天太阳照常升起,一切似乎都和昨日无异。 然而李世石依旧是李世石,但AlphaGo再也不是“阿尔法狗”了。 此后,人类在围棋领域再没有战胜人工智能的战绩。

  当年一个作者写下上段内容(有修改),并提到“23年后,无人幸免”,科学家建立了一个数学模型,判断2040年人工智能可能会达到普通人的智能水平,并引发智力爆炸。

  面对越来越普遍的AI,机器即将代替人类,AI正在迅速扩张。

  一个合力共建的“超级大脑”; 一张指数增长的“神经网络”; 一个初具规模的“硅基秩序”; ............

  五年过去了,人类朝着“黑客帝国”大步迈进。

  那么18年后,真的无人幸免?

  AI的另一面:不够稳定

  以上两件事,本质上都是对AI觉醒的担忧。

  一个拥有自由意志的AI不可信,最终会威胁到人类。

  霍金警告人类要正视人工智能带来的威胁。

  比尔·盖茨认为人工智能是“召唤恶魔”。

  《2001太空漫游》中,超级电脑HAL9000在宇宙中将人类无情抹杀。

  《黑客帝国》中,人类被AI禁锢在矩阵之中。

  不过,实事求是地讲,对AI觉醒的不可信,仍然只是人类臆测。

  虽然科幻电影里描写得残酷冰冷,也还没有得到普遍证实。

  但AI的另一个“不可信”,却是真实存在的。

  它不是太聪明太智慧或者产生意识,而是不够稳定。

  这种不稳定,产生的后果才真的“瘆人”。

  2015年2月,英国进行了首例机器人心瓣修复手术。

  这本是一场最尖端医疗AI技术的展示,但最终以惨痛的失败告终。

  在手术过程中,AI的操作并不如我们想象中那么完美:

  机器人把病人的心脏“放错位置”,还戳穿大动脉;

  大动脉戳破后血溅到机器人的摄像头,导致机器“失明”;

  机械臂“乱动”打到医生的手,影响医生行动;

  机器人主机发出的声音过于嘈杂,影响医生之间的交流。

  种种问题,最终导致患者在一周后不治身亡。

  2021年,重庆朝天门。 一次大规模的上百架无人机进行表演测试。 原本是一次技术的演出展现,但却出现了意外。 带着灯光的无人机群突然像扑火的飞蛾撞向大楼。

  关于人工智能“失灵”的例子还有很多很多,这是AI不够沉稳的一面。

  这才是实实在在“不可信”的地方,也是AI对人类真正的威胁。

  我们不愿意看到AI的“觉醒”,但更不能接受人工智能的“轻率”。

  人类需要的是一个可信的AI

  所以,人类需要一个“可信AI”。

  AI是聪明还是愚蠢,也许并不重要。

  AI是进化还是退化,可能暂时只是一个伪命题。

  人类需要的是一个可靠的助手,一个值得信任的机器助理。

  我是你的创造者,你得听我的吧,不能瞎捣乱。

  阿西莫夫在七十年前就提出了“机器人学三大定律”:

  1.机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管; 2.机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外; 3.机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

  这是人类在AI伦理思考中的方向。

  可以把它称为是人工智能社会的道德准则。

  对于人类来说,可信,才是我们对AI最重要的需求。

  如果从“贝叶斯-拉普拉斯”定理开始溯源人工智慧,目标是解决“逆向概率”问题,其实本质就是解决AI的可信赖度。

  如果不能做到可信,AI就有可能反噬人类。

  最起码AI与我们相伴要保证人类两点:生命安全与财产安全。

  以自动驾驶为例,如果人工智能以准确率为99.99%概率推算,0.01%的失误率依旧会让人心惊胆战。如果未来城市有一百万辆自动驾驶汽车,即便是0.01%的失误率,对人类生命安全造成威胁的隐患车辆仍有一百辆。

  如果我们不能拥有可信AI,我们自然无法确定,人工智能给我们带来的到底是技术的进步,还是无数潜在的威胁。

  可信AI,虽然它不像“AI觉醒”这样能够引发世界关注。

  但实际上它才是人工智能领域最有价值的航灯,也是现在科技公司追求的方向。

  什么是可信AI,

  这16个技术小哥在做什么?

  所以,什么是可信AI?

  可能很多人还不知道,先得把这个定义弄清楚。

  我们可以先看一档节目《燃烧吧,天才程序员2·可信AI》。

  这款综艺节目第一季在豆瓣评分8.0,让人脑洞大开。

  在第二季中,16个AI技术小伙分为四个团队待在“小黑屋”中四天三夜,完成60个小时任务挑战。

  比赛中,他们需要与“黑产”进行无数次较量,培养出与帮助人类的“可信AI”,打败“黑产”,最终决出最强团队。

  关于程序技术的综艺节目,在中国乃至世界都非常稀缺。

  一方面程序与代码本身过于硬核,普通人难以理解。

  另一方面则是节目脚本设置冲突相比其他综艺要更难一些。

  但《燃烧吧,天才程序员2·可信AI》通过“反诈骗”这一实际场景需要,以此构建起节目的比赛逻辑。

  16个AI技术小伙需要直面欺诈交易识别、联合反诈等关卡的挑战。

  通过AI与攻防互相协作,覆盖反诈全链路。

  比赛之中,程序员们通过创造“可信AI”,完成“科技反诈”。

  哪一个团队产出的算法和模型在数据的识别准确率和覆盖率更好,就能赢得比赛胜利。

  虽然不如《黑客帝国》那般深刻宏大,也不如《人工智能》那样发人深省。

  但《燃烧吧,天才程序员》却通过真实的应用场景,解决现实生活存在的实际问题。

  当你看完整个节目时就会明白,原来这就是可信AI:依照现有数据构建智能模型,非常稳定地解决现实难题。

  可信AI的技术应用范围非常广泛,反诈是其中一个重要应用场景。

  可信AI没有那么遥远,它近在咫尺。它也没有那么神秘,很多时候它就是你身边的小助理。

  当前基于神经网络的AI技术非常酷,同时占据AI话题至高点,以创造力和神秘性提供太多想象空间,也是许多AI技术员仰视的圣殿。但它面临的问题也非常多:具有不可解释、鲁棒性差、过于依赖数据等缺陷,隐藏着许多潜在危害。

  而可信AI的存在,就是为了解决这些“信任危机”问题。

  如果说基于神经网络的AI技术有着强烈的理想主义,那么基于大数据整理的AI技术则是一个脚踏实地的现实执行者。

  可信AI的技术特点

  要真正了解可信AI对人类的帮助,需要从技术底层入手。

  可信AI有四大技术特点:鲁棒性、隐私保护、可解释性、公平性。

  一、鲁棒性

  鲁棒性指在异常和危险情况下系统生存的能力和算法稳定。

  1、前者指的是系统抗打击的能力,如计算机软件在输入错误、磁盘故障、网络过载或恶意攻击情况下,能否不死机、不崩溃。打个比方,如果把一个AI模型比喻成万里长城,那么其鲁棒性便是长城在面对恶劣天气(如台风)、自然灾害(如地震)时,人工轰炸时仍然可以做到不轻易倒塌。

  2、后者指的是AI模型中算法本身的稳定性,如果添加扰动的熊猫照片,轻易就绕开了AI模型的“眼睛”,则说明其鲁棒性比较差;比如在欺诈交易中,由于作案手法不断升级,可能导致基于既往数据训练的模型,面临着新风险数据带来的稳定性考验,需要不断迭代来保障模型的分析和识别能力。

  以支付宝为例。支付宝每天都有上亿笔交易,其对抗的不是散户,而是专业的黑产团伙。他们可能有两种攻击方式:

  1、对现在的防御体系找到漏洞进行攻击,那就要看AI鲁棒性的抗攻击能力。 2、输入从未有过的污染数据,逃避现有算法追踪,这就要AI模型的算法稳定性。

  为了保障资金安全,蚂蚁集团引入“博弈智能攻防”技术,该技术具有对风险知识和模型的提前模拟、提前训练、提前补防的能力。应用该技术的AI模型鲁棒性有大幅提升,实现“左右互搏”,既能够更智能地“攻”,也能更安全地“防”。

  二、隐私保护

  传统的数据保护方法客观上形成了「数据孤岛」,影响了如医疗、金融等领域的协同作战,也制约 AI 技术以及行业发展。

  所以,拓展数据价值的隐私计算技术,对实现「数据不动价值动」显得尤为重要。

  在AI领域,联邦学习作为一种新的机器学习模型和算法,就是为解决数据孤岛问题而提出的。在保证每个参与方不泄露原始数据,即数据不出域的前提下,用多方的数据联合建模,实现数据可用不可见,进而实现「数据不动价值动」。

  三、可解释性

  人类对一切未知的东西,始终都会有一种莫名的恐惧。

  如果人工智能的行为无法进行解释,只有结果没有过程,那么它就像是一个盲盒,你永远不知道放出来的是“阿拉丁”,还是“潘多拉”。

  AI 模型是许多重要决策的重要依据,在很多应用里它的思考过程不能是黑盒。

  人类希望知道模型背后的逻辑、收获新的知识,并在它出现问题时踩好刹车,确保 AI 思考的过程和结果合规合法。

  这背后需要数据驱动与模型推理能力结合起来,产生可解释的结果。

  四、公平性

  AI公平性是可信AI的重要组成部分。

  只有实现“公平性”,才能真正推动技术造福于整个社会。

  一方面,公平性需要重视弱势人群、兼顾落后地区发展,在重视社会伦理原则下进行 AI 调优,通过 AI 技术,让老年人、残障人士、欠发达地区用户,享受到数字经济时代的价值。

  另一方面,公平性要思考如何从技术上思考如何减少算法、数据等因素可能带来的 AI 决策偏见。

  鲁棒性、隐私保护、可解释性、公平性。

  这是可信AI的四大基本原则。

  今天,发展可信AI,已经成为全球共识。

  特别是对于领先的科技公司来讲,他们是要服务用户且不能犯错误的。

  微软、谷歌、蚂蚁、京东、腾讯、旷世等科技企业,都在积极开展可信AI的研究和探索。

  据2021年权威专利机构IPR daily发布的《人工智能安全可信关键技术专利报告》显示,蚂蚁集团旗下的支付宝在该领域的专利申请数和授权数,均位列全球第一。

  可信AI的应用探索

  基于可信AI的以上特点,应用场景多种多样。

  AI在医疗、教育、工业、金融等多个领域的广泛应用,算法安全性、数据滥用、数据歧视等问题也层出不穷。当前AI技术的主要矛盾,已经转化为人们对AI日益增长的应用范围需求和AI不可信不够稳的发展之间的矛盾。

  2018年,IBM开发了多个AI可信工具,以评估测试人工智能产品在研发过程中的公平性、鲁棒性、可解释性、可问责性、价值一致性。之后IBM将这些工具捐献给Linux Foundation并成为了开源项目,帮助开发人员和数据科学家构建可信、安全、可解释的人工智能系统。

  作为可信AI领域的先行者之一,蚂蚁也做了不少探索。

  蚂蚁的可信AI技术应用最好的实践结果是,自研了一套智能风控解决方案,定名IMAGE。这套技术体系实现了用可信AI技术保障风控业务安全的问题,且达到了非常好的效果。

  它能将支付宝资损率控制在千万分之0.098,解决了风控场景中的诸多世界难题。

  还有一个例子,是支付宝的“叫醒热线”——从系统识别到用户遇到诈骗风险,到AI机器人向用户呼出“叫醒电话”,它能把整个过程控制在0.1秒内。

  另外在可信AI的公平性方面,蚂蚁也有自己的实际应用。

  目前业内广泛使用的“图形滑块验证码”一直是视障人群接入数字化服务的巨大障碍。但许多 APP 为了防范机器批量操作,又不得不保留验证码服务。

  为此,蚂蚁开发了一套“空中手势”验证码方案,可以利用“行为识别”技术帮助视障群体通过“验证码”关卡。

  可信AI的应用探索,并不会让AI技术失去它的可能性。

  它更像是一种伦理规范的约束条约,让AI在正确的轨道上前行。

  18年后,人类真的无人幸免?

  让我们回到一开始的问题。

  AI真的会觉醒吗?

  一百年前的人类,很难想象我们如今生活的这个高度数字化世界。

  那么,一百年后,人工智能会发生什么变革,我们真的无法预测。

  但AI对人类是福是祸,是一个攸关人类命运的重要课题。

  按照现在AI发展的模式来看,未来的AI可能会分为两大派:

  一派是自我独立的智能AI,一派是追随人类的可信AI。

  当然,还有人在问,AI真的会存在独立意志吗?

  这要看从科学上如何去解释,一个AI系统是可以“坎陷”到具有“自我意识”的状态,差别只在于“坎陷”的深度和鲁棒性,这可以解释AlphaZero为什么能够自我“坎陷”到围棋大师,如果再“坎陷”下去呢?这一派AI,可能会对人类造成我们认定的“威胁”。

  另一派AI,即可信AI,它们会在四大基本原则的架构中不断完善自我,帮助人类解决更多实际问题,成为人类可靠的助手,并与人类共存共生。那么,它们会一直帮助和保护人类吗?

  但无论未来如何发展,不同的技术方向或许带来不同的悲剧或者喜剧,但有一点可以确定:

  AI技术在四面突击,不论是可信AI还是智能AI,最终会落地深入到我们生活的方方面面。它会渗透到世界的每一个角落,在很多方面取代“无用之人”。

  不管我们如何担忧,AI只会变得越来越强大,而人类的进化又显得如此龟速,甚至退化堕落。

  那么,18年后,有多少人可以幸免?

习近平:共建网上美好精神家园 培育向上向善网络文化
网络强国丨让数字文明造福各国人民
习言道丨高度重视!坚持营造风清气正的网络空间
联播+|树立正确网络安全观 共筑网络安全防线
物联网领域“公有云”屡屡受挫
网络文学向传统“取经” 发扬中华优秀传统文化
上海5G网络速率居全国首位,建设超27万个5G室内外站
百度智能云:含“智”量带动产业数字化转型
[ 最新资讯 ]

大步迈进“黑客帝国” 人类需要一个可信AI

AI技术在四面突击,最终会落地深入到我们生活的方方面面, 渗透到世 界的每一个角落,在很多方面取代“无用之人” ...

“最贵瑜伽裤”,Lululemon在中国市场疯狂吸金

  Lululemon狂赚20亿,增长全靠中国市场? ...

卖了101年粽子的五芳斋,如何摆脱粽子依赖症?

粽子第一股正式上市了。...

海底捞一年关店276家之后:营收下跌,再次出现亏损

海底捞(06862 HK)发布了2022年上半年财报。报告期内,海底捞实现收入167 64亿元,同比下跌16 57%;归属于公司股东净亏损为2 66亿元,上一年同期则盈利9452 9万元。...

迪士尼乐园涨价:我的钱包再也不快乐了

  迪士尼乐园的游客数量减少了,但今年第二季度的收入和利润均创历史新高。 ...

摆脱价格打压,快递企业上半年业绩整体呈回补趋势

A股快递行业(884818 WI)公司陆续披露完上半年业绩报告,整体延续了业绩回补趋势。 ...