日期:[2023年03月30日] -- 每日经济新闻 -- 版次:[01]

每经热评丨管好大型AI亟需补足监管短板

每经评论员 杜恒峰
  3月29日,由图灵奖得主约书亚·本吉奥、埃隆·马斯克、《人类简史》作者尤瓦尔·赫拉利等人联名发表公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月,以确保人类能够有效管理其风险。暂停工作应该是公开且可以证实的,如果AI实验室不能快速暂停,各国政府应该实行暂停令。目前,这份公开信已经征集到1128份签名,其中列出的AI风险包括:不实信息、对人类工作的替代、人类失去对文明的控制等。
  AI由人创造而来,AI的风险不在AI,而在于人。以ChatGPT、Bard等大语言模型为代表的大型AI成本高昂,只有微软、谷歌、Meta这样的少数超大型企业才能烧得起钱,大型AI的风险目前也主要聚焦于这些大企业。占领先机的微软,主动发起了一场AI的“军备竞赛”,不但将ChatGPT3.5迅速升级到4.0,还将其植入到bing、office等自己的核心产品中,还开放API接口,试图做成“AI时代的App Store”。速度是商业竞争取胜的法宝,和微软一样,包括中国企业在内的同行,也都在争相布局大型AI。对于AI的伦理和风险问题,目前主要依靠企业自己来管理,但一个令人担忧的现实是,由于过于强调速度,企业对伦理和风险的重视程度会下降,有的企业甚至可能“磨平轮胎”以减少行驶阻力,比如微软在今年1月解散了所有的伦理与社会团队,Twitter在马斯克入主后裁掉了一个小型人工智能伦理团队,去年9月Meta解散了其负责任的创新团队。
  在“磨平轮胎”的同时,大型企业掌控人财物等经济资源的能力更值得担忧。麻省理工的研究人员本月发表的一篇论文显示,在2020年,近70%的AI博士进入企业工作,2004年这一比例还只有21%;在最大型的AI模型计算中,企业拥有的份额从2010年的11%上升到2021年的96%;2021年私营部门的AI投资超过3400亿美元,而来自政府的投入只有10多亿美元。当企业掌握了绝对的资源优势,就有了主导行业发展方向的能力,人力和财力都处于绝对劣势的政府和学界的影响力微乎其微,也就没有给企业踩下刹车、降低风险的能力。
  上述公开信要求“暂停训练6个月”,其目的在于创造一个窗口期,为AI制定行业规则,包括共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督,成立专门针对人工智能的监管机构,建立强大的审查和认证生态系统等。且不论这些倡议能否成行,即便真能暂停6个月,鉴于AI本身的复杂性和公共部门掌握的资源的有限性,也不足以完成如此庞大的AI监管体系的建设。
  依赖企业的“道德感”实现自我监管是不现实的,监管机构轻信企业的说辞进行形式上的监管也是不可取的——波音737MAX事故背后的FAA(美国联邦航空管理局)、普渡制药奥施康定滥用案背后的FDA(美国食品药品监督管理局)都是惨痛的反面案例。
  要将AI关进符合人类利益的笼子里,必然需要一个强大的监管网络,补齐政府、协会、学会方面的资源短板是关键的第一步,确保有足够的人财物实现监管目标。AI变革已经开始,监管方面的行动也必须尽快跟上,只有建立最严格有效的监管体系,才能确保大型AI符合每个人的利益,避免其对社会造成巨大的伤害。