想象未来,你和人工智能一起生活,无话不谈。你为工作劳碌,它会提供情绪价值和建议;你为晚餐发愁,它会教你做菜;你去海边旅行,它帮你规划行程……
(资料图片)
不过,那暂时还是想象的世界。
回到现实,自ChatGPT发布,全球竞逐AI赛道,人工智能发展的速度,已超乎我们的想象。随之而来的是意大利封禁ChatGPT,各国加强监管,上千位科技大佬呼吁暂停AI训练。国内,各大厂对这个赛道的争夺逐渐白热化。一些雄心勃勃的创业者,孤注一掷投身其中。在很多领域,相关的人才成了抢手货,待价而沽。
但不可不认,人工智能已经走到十字路口,众多选择摆在人类面前:AI研发是继续狂飙,还是踩下刹车?政府该放任还是监管?是创新在前还是伦理优先?
我们找了几位人工智能领域大佬聊了聊。
来源:新华社
问题一:是继续研发还是暂停?
最近几个月,全球对AI白热化的研发,陷入一场了“失控”的竞赛。
仅一张草图,GPT4就能生成一个网站代码;文心一言10秒钟画出一幅插画,Midjourney一句话生成视频,谷歌Bard接入更大的语言模型,“她”智能到有情绪、发脾气……更高智能的AI陆续出场,功能强大到令人害怕。
3月29日,包括马斯克在内的上千科技大佬发出的一封公开信,呼吁暂停训练比GPT-4更强大AI系统,让其黑暗面走到了聚光灯下:泄密、散布谣言、取代人的工作、威胁人类生存。
一石激起千层浪,来自各方呼吁停止研发AI的声音,也变得越来越响亮。
3月18日,斯坦福大学教授科辛斯基在推特上疾呼:“我担心我们无法持久地遏制住AI。”被称为“人工智能教父”的杰弗里·辛顿也预言:AI消灭人类并非空谈。
到了两难的境地,全球对AI的研发,该继续狂飙,还是该踩下刹车?
中国科技大学教授、中国人工智能学会人工智能伦理与治理工委会主任、广东省科学院人工智能首席科学家陈小平告诉潮新闻记者,这个问题要从两方面看。
单纯从技术角度看,研发比GPT4更强的AI,技术本身不会有太大的危害。AI技术带来的负面影响,大多是在实际应用中发生的。如果把它“封印”在笼中,比如仅在实验室中研究和测试,它不会产生严重的社会性后果。
AI再强大,也有技术解决不了的问题。
从基本原理来分析,大模型技术有两个先天局限,且不能被彻底消除:一是判断真假的能力,二是对伦理的判断能力,比如什么是符合社会规范的,符合道德伦常,尤其是没有明文规定的那部分,它很难通过学习来获得。
“面临人工智能的新进展,当下治理的模式、治理的措施都没有跟上。如果此时再推出更强大的AI,很有可能带来更严重的隐患。”陈小平分析。
从这个角度,有人选择暂停一下,等新的治理模式和方法出台以后,再来有序研发,不失为一种更稳妥的方式。
“语言模型是一个很好的技术,是一个提高生产力的工具。但是,任何好的技术,特别是新技术的诞生,总会有风险。”中国人民大学高瓴人工智能学院教授卢志武告诉潮新闻记者。
打个比方,跟汽车代替马车一样,汽车开得飞快,时常会有车祸,风险比马车更大,但后期人们不断改进技术,减少了车祸的发生。
在卢志武看来,不能因为有风险,就把新技术禁掉,或者停止研发,它需要在跟人类的社会结合过程中去磨合、完善,慢慢把不好的地方改掉。
来源:新华社
问题二:放任还是监管?
面对未知,我们第一反应是恐慌,而后才是理性。在疯狂和混乱中,人们试图寻回秩序,制定关于AI的监管措施。
3月31日,意大利率先禁止使用ChatGPT,并限制OpenAI处理意大利的用户信息,理由是“为训练ChatGPT的算法而大量收集和存储个人数据没有法律依据”。
4月4日,德国也开始考虑禁用ChatGPT。法国和爱尔兰的监管机构表示,他们正在与意大利讨论其调查结果。此前,英国也提交了《支持AI创新的监管方法》政策文件。
“这些国家的做法,只是一种临时性的措施,不是长久之计。等新的治理办法出来后,他们自然会解禁。”陈小平说。
过去的技术治理,通常是事后治理。等问题爆发了,对症下药,有的放矢,效率很高。比如直播带货乱象频现,人们再来监管;虚拟货币盛行,多国开始封禁;网络谣言泛滥,人们来修改法律规范。
眼看着AI一路狂飙,传统模式已然不适用了。
“如果等危害发生了,比如诱导AI出坏主意造成严重的恐怖事件,或者短期内造成大面积失业,人们再来治理,其后果很可能是不可接受的。”陈小平说。
科技发展要逐步地转向伦理先行。越来越多人意识到,在AI领域,特别是大模型技术,它要发展得好,一是靠技术的进一步完善,二是靠人工智能伦理治理。
“我们现在需要尽快建立人工智能伦理治理的新的模式、新的办法,办法有了,技术就可以放心地使用,不会发生严重的恶性后果,也有利于人工智能的健康发展。”陈小平说。
去年,中国政府就提出了“伦理先行”的概念,在一次联合国会议上,中国政府提交了《中国关于加强人工智能伦理治理的立场文件》,既是表达治理决心,也是呼吁国际合作。
就在不久前,联合国首次就AI的伦理风险,对所有会员国提出要求:在AI发展问题上,各国政府应毫不拖延地实施全球伦理框架。
山姆阿尔特曼推特截图
问题三:AI和人类,未来谁更胜一筹?
最近,关于AI自我意识的讨论沸沸扬扬,但一直没有定论。那个终极难题再度浮现,AI是否能够超越人类,让人既害怕又好奇。
随着更强大的GPT-4的发布,连OpenAI的首席执行官山姆·阿尔特曼也有了一些耐人寻味的表述,他说,未来AI确实可能杀死人类。
连创始人也并不能完全理解、预测和控制AI的未来。360集团周鸿祎更是大胆地预言,“AI一定会产生自我意识,留给人类的时间不多了。”
那么,AI真能有人的意识和智慧吗?的确,ChatGPT给人一种有智慧的“错觉”,但几位教授都指出,从根本上说,机器不是人,它不是真的能理解人。
陈小平说,人工智能更准确的名称是机器智能,它不是人的智能,机器智能可以模仿人的一部分功能,包括人的部分意识功能,但并不是说机器具备和人一样的意识。
什么叫模仿功能?举个例子,AI机器人阿尔法狗能下围棋,但它下棋跟人有很多不同。人下棋时会想一些棋外的事情,而这些对阿法狗根本就不存在。ChatGPT能模仿人的语言行为,语言能力甚至超越很多人,但不等于人说话时想到的它也都想到了。说到底,它只是某些功能更强。
卢志武说,我们暂时不用担心AI会有自主意识,会不会超越人类。ChatGPT模型的训练方式,是人为地收集数据、训练模型,整个进程是由人控制的,而不是机器自主学习,它不会失控。
ChatGPT学了人的语言功能,但要更进一步模仿人类,比如学习图像、音频,难度大得多。“语言毕竟是人类抽象的一个东西,但图像和声音都是具象的,是天然存在的,它数据量更大,信息表达更复杂。”卢志武说。
如果,我们的终极目标是想让人工智能变得更聪明,同时对人类做有益的贡献,这还有很长的路要走。
但是,无论是过去的科幻电影,还是眼前的人工智能,都在一次次警示我们,从现在起,必须全球通力合作,解决AI的安全和伦理问题。
站在十字路口,一切还不算太晚。
(来源:潮新闻)
更多精彩资讯请在应用市场下载“极目新闻”客户端,未经授权请勿转载,欢迎提供新闻线索,一经采纳即付报酬。
标签: