ChatGPT应该开源吗?强AI如何监管?两会云论坛热议 环球信息
今年两会期间,ChatGPT不仅频频出现在代表委员带来的提案建议里,也被带上了“部长通道“。3月5日,科技部部长王志刚答南都记者提问时表示,ChatGPT的进步之处在于保证算法的实时性和算法质量的有效性,“踢足球都是盘带、射门,但是要做到像梅西那么好也不容易。”
技术上的进步使得ChatGPT的影响力逐渐辐射到各行各业,而当兴奋、好奇逐渐褪去,新的思考则浮出水面:作为一个AI模型,ChatGPT究竟有多大的突破性?它已经强大到足以“替代”人类了吗?当一个新兴技术出现、兴起、不断“进化”,我们又应该调整和它的相处模式?
(相关资料图)
3月6日,举办两会云论坛——ChatGPT之后,AI开始“替代”人类?论坛上,有专家表示,AI的价值观和人是不一样的,不能拿对人的监管手段去监管AI;要理解一个AI产品,不能只看它表现好不好、速度快不快,还要看它是否符合一个地区的法律法规和公序良俗。
···
ChatGPT是基于AI的基础设施
当前,对于ChatGPT惊人效果的报道屡见不鲜。但作为一个AI模型,在褪去了诸多光环之后,它是否仍能被称为“革命性”的技术?对此,业内争论不断。
在清华大学交叉信息研究院助理教授、人工智能国际治理研究院国际交流项目主任于洋看来,如果将传统的AI模型视作一个产品的话,ChatGPT就是一个基于AI的基础设施,而它的本质是改变了AI与经济之间的关系。
他进一步解释,首先,ChatGPT的资本投入非常高,训练一次的算力成本可能高达上亿元,还需要大量人力去做数据的标注和修正。但与此同时, 它也可以普惠很多企业,拉动多个行业的发展。
其次,ChatGPT可以同时完成文本生成、摘要抽取等一系列不同任务。这种“多功能性”使得ChatGPT能为很多产业直接采用,企业不再需要为多个单一任务购买多个模型或服务,降低了引入新技术的成本。
最后,以ChatGPT为代表的这一类大规模预训练模型赋能经济增长的模式,非常符合国内的“东数西算”战略。比如,可以由东部区提供大量数据,再将大规模预训练模型部署在西部区进行训练。
“它促使我们开始思考:国家或大公司力量该向何领域投入?这一类AI基础设施应该谁来建?公营还是私营?对于基础设施的上下游企业,如何构建市场,才能让他们都有足够的获利?”于洋说。
中科深智科技有限公司CEO成维忠则提出,在ChatGPT之后,互联网的核心驱动力正在发生变化。以前会通过互联网进行业务之间的互相借鉴、学习,实现创新,进而优化业务流程,但现在,在AI驱动的业务流程中,创新似乎已经显得没那么重要。
此外,他认为ChatGPT在人机交互方面也取得了重大突破。他表示,现在常说的人机交互界面也叫图形用户界面(UI),包含各种各样的图标菜单。而在ChatGPT之后,“自然用户界面”(NUI)这一概念再次被提起——
这是一种无形的界面设计,能让用户的注意力完全集中在所要从事的活动上,而忘记界面本身的存在,或者说,界面变得“透明”了。
成维忠表示,如果自然用户界面再次成为一种潮流,可能会影响包括国防在内的许多领域——人们再也不需要菜单,而是直接通过对话来交互。有因为这种方式下一次交互的信息量远超以前的菜单图表,交互的效率也将被大大提高。
···
可能使产业重组再造,带来新的就业市场
在一些AI领域的学者看来,ChatGPT头上笼罩着一些过亮的“光环”,但到目前为止,它确实已经为我们的生活带来了不少影响——无论好坏。
全国政协委员、四川省律师协会副会长李正国以他所在的法律行业为例指出,相较传统的搜索引擎和法律数据库,ChatGPT展现出强大的分析能力和互动交流能力,尤其在一些基本事务性工作上,如查找法律条款、结合案例梳理法律的使用要件、结合案情分类型进行法律使用的讨论、撰写法律文书等等。
他指出,随着ChatGPT的不断优化和应用,可能会引发一定程度的行业变革,甚至可能颠覆法律从业人员的定位——特别是对于经验不足,或仅处理一些基础法律业务的律师。
不过,他认为ChatGPT难以替代法律工作者的核心能力,如审查力、判断力和平衡力。尤其是在一些事实不清,证据不足,规则空白或者各种价值冲突模糊的疑难案件中,更需要人去平衡法理和情理的冲突,考虑公序良俗和社会影响。
于洋则基于ChatGPT是AI基础设施的观点,提出了三种ChatGPT可能为社会带来的影响。
第一,使社会经济结构发生很大变化。比如ChatGPT可能使得很多产业重组再造,或者催生一系列以它为支撑的上下游产业,而数据收集、标注、处理和安全流通等工作未来可能变成更大的产业。
第二,重新定义人们对就业市场的需求。除了替代以外,ChatGPT也可能创造更多就业岗位,如数字标注、事实查验等等。
第三,重新定义很多已有行业内容。比如,很多艺术创造者在提升自身技法之余,可能也会花更多的精力在引导AI生成内容上;促使整个教育体系,包括教育内容的安排、教育模式都作出相应调整。“当前,已有部分院校开设专业,教授学生如何做一个带货主播,这就是一个教育适应技术转移的例子。”于洋举例说。
开源or闭源?监督人or监督AI?
既然以ChatGPT为首的一众强大AI所带来的影响已经存在,且肉眼可见地将要持续到未来,那么,我们到底要如何规制、监督,并与它们长久地共存呢?
成维忠自称是个“乐观派”。他认为技术是中性的,只要合理地利用它的能力,就能对整个社会起到一个正向的扶持作用。但同时他也提出一点担忧:当ChatGPT这样的AI模型不断发展,乃至达到了通用人工智能(AGI)阶段,并在各方面能力都远超人类时,如何判断其是否应该开源?
“有观点认为,如果将通用人工智能看作核武器,其对社会可能产生的负面影响甚至要比核武器还要大。那么在这种假设中,核武器的技术就肯定不会被随意公开吧?”在成维忠看来,哪些人工智能可以开源、让上下游的公司来使用,哪些人工智能应该闭源、防止被非法分子利用,这是国内企业未来在进行类似业务时应该思考的问题。
李正国也从司法角度提出了他的建议:首先一定要通过法律方式来规范技术发展的相关标准,加强对人工智能的风险研判;其次要加强国际合作交流,通过全球协同共治保障人工智能健康发展。
对于李正国提出的第一点,成维忠补充道,针对AI立法是一个趋势,但过程并不会太快,因为ChatGPT会给各行各业带来哪些影响,还需要一个观察期和讨论期,在这个过程中,相关法规条款会逐渐得到完善。
对于需要完善法律建构来规制、约束ChatGPT这一点,于洋表示赞同。但他也强调,AI的价值观和人是不一样的,“不能拿对人的监管手段去监管AI”——换句话说,AI的治理并非人的治理,而是一个新型技术治理问题。
于洋提出,AI的价值观是“半可控的”,比如开发者可以对AI性别歧视或种族歧视的部分进行审计和纠正,但从技术开发的角度来说,AI又存在无法避免的错误。因此,要理解一个AI产品,“不能只看它表现好不好,速度快不快,还要看它是否能符合一个地区的法律法规和公序良俗”。
此外,于洋还提到,人应该学会和半自动化或者具有一定智能的机器合作。
他以自动驾驶为例表示,很多人在学习驾驶的时候,本质上学习的是如何与一个没有智能的机器合作,所以在使用一个有自动驾驶功能的汽车时,有些人或许会直接将手拿开,让车去“自动驾驶”——这是因为人们并不了解所谓的自动驾驶是什么,也不了解哪一级的自动驾驶意味着什么。
“技术不断发展,但人类其实缺乏一个训练人如何与机器合作的体系。在未来,如何与具有智能的机器合作?以什么样的模式合作?这些都是需要深入思考的问题。”于洋强调。