2023年注定是人工智能技术风起云涌的一年。这一年,交互式AI应用“百花齐放”,成为公众和媒体反复讨论报道的话题。国家语言资源监测与研究中心日前发布的2023年度“十大新词语”中,“生成式人工智能(AIGC)”赫然居于榜单首位,这一方面揭示了AIGC贯穿全年在国内带来了不可忽视的影响,另一方面也表明全社会舆论对新一年AIGC的发展动向抱以期待。
“百花齐放”,AIGC步入新阶段
纵观2023年,从“百模大战”竞赛,到应用层生态的“百花齐放”,AIGC产业在这一年迎来爆发期。
在国际领域,AI大模型展露锋芒,正以技术驾驭未来。这一年,OpenAI正式官宣多模态大模型GPT-4,新增了图像功能(多模态),使其从一个对话式Demo变成可以多线处理文字、图像、语音、视频等多种信息载体的超级APP。与此同时,谷歌、微软等一众科技巨头纷纷推出自家AI大模型,意图在抢占市场份额上一决高低。
在国内,“百模大战”也在上演。百度的文心一言、阿里巴巴的通义千问、360的360智脑、腾讯的混元、华为的盘古……这一年,国产大模型亦呈现出百舸争流的景象。数据显示,截至10月份,中国已经发布了238个大模型,相较于6月份的79个翻了3倍。
值得一提的是,今年8月份,由国家网信办等七部门发布的《生成式人工智能服务管理暂行办法》正式实施,从政策层面设置了准入门槛,标准体系覆盖多个行业,涵盖了模型行业能力、模型工程化性能、模型算力网络、模型安全可靠等方面,数据、算法、模型、安全因素重要性凸显。这也意味着“百模大战”回归理性,AIGC行业迈入整合阶段。
“在此过程中,如何借鉴生物学和心理学的原理,让AI系统通过元学习等方式更快地适应新任务和环境;如何减少对大量标注数据的依赖,让AI系统能够通过无监督或自监督的方式学习知识;如何使AI系统能够处理和整合来自不同模态(如图像、语音、文本等)的信息,提高其理解和应用能力;如何减少AI模型的规模和计算资源需求,以便在边缘设备上部署和运行;如何预防和应对针对AI系统的攻击,如对抗样本、模型窃取和数据投毒等,确保AI系统的安全和可靠,这些都是AIGC技术发展中亟待探讨的问题。”太阳集团tyc5997新闻学院教授、元宇宙文化实验室主任沈阳在接受中国经济时报记者采访时直言道。
“亦巨亦微”,AI发展风险点仍须重视
随着AI大模型快速更新迭代,未来,AIGC产业或将呈现何种趋势,又会碰撞出哪些火花?
对此,沈阳表示,未来的大语言模型发展或将呈现两种相反的趋势,即巨大模式和微小模式。其中,巨大模式是全模态,海量参数,即在更广泛的知识领域中汲取智慧,对问题提出更深入的见解,强调知识的无穷性和多样性以及AI技术在追求真理和理解世界时的角色。微小模式是模型压缩和优化,力争在有限资源达成近似性能。即在保持较高预测准确性的同时,大幅度减小模型的大小和计算成本,优化计算效率,实现高效的模型预测,可以在较小的设备上运行。
“鉴于全球范围内语言和文化差异、数据安全及合规性要求等,大型语言模型的本地化是刚需。本地化能够提高模型在特定语言、文化和行业背景下的准确性和实用性,从而满足更多用户需求。同时,中国也不会只有一个大模型,每家企业和个人都将有自己的GPT,将呈现多元共生的格局。”沈阳说。
还应看到,在AIGC发展过程中,仍有一些风险点值得我们重视。
沈阳表示,AIGC强势介入全球产业链,或将全面替代程序员、平面设计、法律AI客服,为人工成本划定上限,第三世界国家人口红利不复存在。第三世界产业链将因此遭受巨大冲击,低端产业链将不再进行转移。大算力支持下的AIGC可能成为割裂跨国公司全球产业链的利刃。
同时,在技术马太效应影响下,一个稳定的社会中会可预期地形成无用阶层。多数人的平庸脑力劳动将失去价值。
此外,AI的伦理风险也会随着AI技术的强大而成倍放大,从而影响更多的人。
有鉴于此,沈阳建议,未来AI的开发还需要引入伦理和人文关怀,开发能够反映用户多元价值和需求的个性化AI,设计能够提升人们信息素养和批判思维能力的AI教育,以及建立能够防止AI滥用和保护用户权益的法律和规制等,从多个维度规避AI风险。
编辑:李华山