通用人工智能的双刃剑:驾驭发展,规避危机

创业
2023
06/01
10:34
亚设网
分享

我想做一个大胆的预测:当2024年到来,我们来评选2023年度词汇时,ChatGPT会是十大热词之一,甚至可能成为年度词汇或年度人物。

通用人工智能的双刃剑:驾驭发展,规避危机

编者按:本文作者系无锡市大数据管理局局长胡逸,文章首发于澎湃新闻,创业邦经作者授权转载。

《未来简史》作者尤瓦尔·赫拉利警示:核武器和人工智能最大的区别是,核武器不能制造更强大的核武器。但人工智能可以产生更强大的人工智能,所以我们需要在人工智能失去控制之前迅速采取行动。

最近,微软雷蒙德研究院机器学习理论组负责人塞巴斯蒂安·布贝克(Sébastien Bubeck)联合2023斯隆研究奖得主李远志等人,发表了一篇关注度极高的论文。这篇论文名为《通用人工智能的火花:GPT-4早期实验》,长达154页。一些好事者从LaTex源码中发现,原定的标题实际上是《与AGI的第一次接触》。

这篇论文的发表,标志着人工智能研究领域的一次重要里程碑。它为我们深入了解通用人工智能(AGI)的发展和应用提供了有价值的见解。同时,论文的原定标题《与AGI的第一次接触》,也凸显了对迈向通用人工智能的探索的重要性和前瞻性。

我耐着性子,看完了这篇论文的翻译版。说句大实话,半懂半不懂,不明觉厉。先给大家介绍一下这篇论文的核心主张:GPT-4呈现出一种通用智能的形式,绽放了通用人工智能的火花。这表现在它的核心心智能力(如推理、创造力和推理),它获得专业知识的主题范围(如文学、医学和编码),以及它能够完成的各种任务(如玩游戏、使用工具、解释自己等)。

读完这篇,我又重温了拙文《未来可期|人工智能绘画:让每个人都成为艺术家》。我问了自己一个问题:此前把ChatGPT这类大模型归类在人工智能生成内容(AIGC),是否有些狭隘?正如微软研究院论文所说,GPT-4实际上不仅仅是AIGC,它更像是通用人工智能的雏形。

在解释AGI意味着什么之前,我先给澎湃科技“未来可期”专栏的读者朋友说一下ANI、AGI、ASI这三个单词。

人工智能(Artificial Intelligence, AI)通常分为三个层次:

①弱人工智能(Artificial Narrow Intelligence, ANI);

②通用人工智能(Artificial General Intelligence, AGI);

③超人工智能(Artificial Superintelligence, ASI)。

接下来,再稍微给大家介绍一下这三个层次的区别和发展。

①弱人工智能(ANI):

弱人工智能是目前最常见的人工智能形式。它专注于执行单一任务或解决特定领域的问题。例如,图像识别、语音识别、机器翻译等。这类智能系统在特定任务上可能比人类表现得更好,但它们只能在有限的范围内工作,无法处理它们未被设计解决的问题。当前市场上有许多智能产品和服务,如虚拟助手(Siri、微软小冰等)、智能音箱(天猫精灵、小爱音箱等)和阿尔法围棋(AlphaGo)等,都属于弱人工智能的范畴。弱人工智能的局限性在于,缺乏综合性的理解和判断能力,只能在特定任务上表现出色。

随着大数据、算法和计算能力的不断发展,弱人工智能正在逐步渗透到我们日常生活的各个领域。在金融、医疗、教育、娱乐等领域,我们已经见证了许多成功的应用案例。

②通用人工智能(AGI):

通用人工智能,也称为强人工智能,是指具备与人类同等的智能,能表现正常人类所具有的所有智能行为的人工智能。这意味着,AGI能够像人类一样,在各种领域中学习、理解、适应和解决问题。和ANI不同,AGI能够独立完成多种任务,而不仅仅局限于某个特定领域。目前,普遍认为人工通用智能尚未实现,但许多科技公司和科学家正在努力靠近这一目标。

③超人工智能(ASI):

超人工智能指的是一种人工智能系统,在各个领域远远超越人类智慧。它不仅能够完成人类可以完成的各种任务,还在创造力、决策能力、学习速度等方面远远超过人类。ASI的出现,可能引发许多前所未有的科技突破和社会变革,解决人类无法解决的难题。

然而,ASI也带来了一系列潜在的风险。例如,它可能导致人类价值和尊严的丧失,引发人工智能的滥用和误用,甚至可能引发人工智能的反叛等问题。

原来,我们一直认为,人工智能技术,从弱人工智能到通用人工智能再到超人工智能,将经历一个漫长而复杂的发展过程。在这个过程中,我们有足够的时间来做好各种准备,大到法律法规、小到每个个体的心理准备。可是,最近我有一个强烈的感觉:我们离拥有通用人工智能可能只有几步之遥,而这可能只需要20年甚至更短的时间。如果有些人说这个过程只需要5-10年,我也不会完全排除这种可能性。

OpenAI公司在其发布的《通向AGI的规划和展望》中提到:“AGI有可能为每个人带来令人难以置信的新能力。我们可以想象一个世界,我们所有人都可以获得几乎任何认知任务的帮助,为人类的智慧和创造力提供一个巨大的力量倍增器。”

然而,这份规划强调了一个“逐渐过渡”的过程,而不是过分强调AGI的强大能力。“让人们、政策制定者和机构有时间了解正在发生的事情,亲自体验这些系统的好处和坏处,调整我们的经济,并将监管落实到位。”

在我看来,这段话传达的潜在信息是:通往AGI的技术其实已经具备。然而,为了让人类社会有一个适应的过程,OpenAI正在有意放缓技术的进展步伐。他们意图平衡技术进步和人类社会的准备程度,给予更多时间来进行法律、伦理和社会适应的讨论,并采取必要的措施来应对可能带来的挑战。

《论语·季氏将伐颛臾》里面有这么一句话:“虎兕出于柙”,现在,各种GPT们,如猛虎一般,已经从笼子里跑出来了。就像《未来简史》作者尤瓦尔·赫拉利所言:人工智能正在以超过人类平均水平的能力掌握语言。通过掌握语言,人工智能已经具备与数亿人大规模产生亲密关系的能力,并正在掌握入侵人类文明系统的钥匙。他更进一步地警示:核武器和人工智能最大的区别是,核武器不能制造更强大的核武器。但人工智能可以产生更强大的人工智能,所以我们需要在人工智能失去控制之前迅速采取行动。

3月22日,生命未来研究所(Future of Life)向全社会发布了一封公开信,题为《暂停巨型人工智能研究:一封公开信》,呼吁所有人工智能实验室,立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。生命未来研究所美国政策主任克雷恩(Landon Klein)表示:“我们认为当前时刻类似于核时代的开始……”这份公开信,已获得超过超千名人士支持,其中包括埃隆·马斯克(特斯拉创始人)、山姆·奥特曼(OpenAI首席执行官)、约书亚·本吉奥(2018年图灵奖得主)等知名人士。

如果许多人都意识到,我们即将进入一个“人工智能核武器扩散”的时代,那么我们确实需要探讨一种可能性。这个可能性是建立一个类似于国际原子能机构的国际组织,其目标是监督所有人工智能公司,根据其使用的GPU数量、能源消耗等指标进行监管。那些超过能力阈值的系统,都需要接受审核。通过这样的国际组织,我们可以共同努力,确保人工智能技术为人类带来福祉,而不是潜在的危害。

一些科学家主张,在推进人工智能研究和应用时,一定要避免人工智能系统具有超出人类控制的能力。他们做了很多比喻来描述正在发生的灾难,包括“一个10岁的孩子试图和Stockfish 15下棋”,“11世纪试图和21世纪作战”,以及“南方古猿试图和智人作战”。 这些科学家希望我们,不要把通用人工智能想象成“居住在互联网中,没有生命的思考者”。而是要把它们想象成一个完整的外星文明,正在以比人类快百万倍的速度思考。只不过,它们最初被限制在计算机中。

然而,也有一些科学家持乐观态度。在他们看来,人工智能的发展和研究应当持续推进,以促进科学进步和技术创新。他们比喻说,如果在汽车诞生的那个年代,如果有马车夫提议,让司机暂停开车6个月。现在回过头来看,这是否是螳臂当车的行为呢?他们认为,通过透明和负责任的研究方法,可以解决潜在问题,并确保人工智能技术的可控性。而且,正是要通过不断的实验和实践,我们才能更好地理解和应对人工智能可能带来的挑战。

最近,世界卫生组织(WHO)对于人工智能与公共医疗的结合发出了警告。他们指出,依赖人工智能生成的数据进行决策,可能存在偏见或被错误使用的风险。世卫在声明中表示,评估使用ChatGPT等生成式大型语言模型(LLM)的风险至关重要,以保护及促进人类福祉。他们强调,需要采取措施来确保使用这些技术时的准确性、可靠性和公正性,以保护公众的利益并推动医疗领域的进步。

许多国家已经开始采取措施,迈出了规范人工智能领域的第一步。3月31日,意大利个人数据保护局宣布,即日起暂时禁止使用ChatGPT。同时,欧盟官员也正在制定一项名为《人工智能法(AI Act)》的新法律草案,其中包括:禁止特定人工智能服务的使用以及制定相关的法律规范。

美国商务部则发布通知,征求公众意见,其中包括:存有危害风险的人工智能新模型是否需要先进行审查才能发布。同时,商务部还承诺,打击那些违反公民权利和消费者保护法的有害人工智能产品。

5月16日,OpenAI首席执行官兼联合创始人山姆·奥特曼首次参加美国国会的听证会,就人工智能技术的潜在危险发表了讲话。他坦承,随着人工智能的进步,人们对于它将如何改变我们的生活方式感到担忧和焦虑。为此,他认为政府的干预,可以阻止人工智能“狂放的自我复制和自我渗透”。他提议建立一个全新的监管机构,实施必要的保障措施,并颁发人工智能系统许可证,同时具备撤销许可的权力。

在听证会上,奥特曼被问及他对人工智能可能出现的最大担忧是什么,他没有详细说明,只是表示“如果这项科技出了问题,可能会大错特错”,并可能会“对世界造成重大伤害”。

在这个听证会之前,中国在人工智能领域的监管和控制措施也引起了广泛关注。4月11日,为促进生成式人工智能技术健康发展和规范应用,根据《中华人民共和国网络安全法》等法律法规,国家网信办起草了《生成式人工智能服务管理办法(征求意见稿)》。这份办法明确了对生成式人工智能产业的支持和鼓励态度,比如,“国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。”

该意见稿要求,利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。意见稿同时要求,供货商须申报安全评估,采取措施防止歧视,尊重隐私权等。

上述这些国家共同采取的措施提醒我们,当前人工智能的发展带来了巨大的机遇和挑战。我们迫切需要制定明确的伦理准则和法规,以确保人工智能技术的正确使用和透明度。我们将面临着一系列重要问题:如何保障数据隐私和安全?如何应对算法的偏见和不公正?如何确保人工智能的决策透明和可解释性?这些问题需要通过明确的法规和制度来回应。

写到这里,我的思绪莫名地跳转到了最近大火的国产剧《漫长的季节》中,那首题为《漫长的》的诗歌第一段:

打个响指吧,他说

我们打个共鸣的响指

遥远的事物将被震碎

面前的人们此时尚不知情

在这里,我想做一个大胆的预测:当2024年到来,我们来评选2023年度词汇时,ChatGPT会是十大热词之一,甚至可能成为年度词汇或年度人物。

让我们来拆解一下“AI”这个单词吧。如果A代表天使(Angel),那么I可以代表恶魔(Iblis)。如今,人工智能技术正在迅速发展,展现出令人惊叹的“天使和恶魔”的共生关系。面对这一现实,我们需要采取行动,为了一个目标——“让我们享受一个金色的漫长的人工智能的收获之秋,而不是毫无准备地陷入寒冬。”

本文(含图片)为合作媒体授权创业邦转载,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。

THE END
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表亚设网的观点和立场。

2.jpg

关于我们

微信扫一扫,加关注

Top