说起算力、数据可信、模型架构等专业术语,对于多数外行人而言,可能会感到既晦涩难懂,又仿佛这些概念高不可攀,难以捉摸。然而,在近日召开的北电数智“前进·AI异构计算平台”发布会上,记者采访到了发布环节的主讲人——人工智能领域的著名专家窦德景,作为北电数智首席科学家的他,分享了自己对“数据安全可控”与“国产芯片自主创新”的独特诠释。
计算机科学家、名校教授、顶级咨询公司合伙人......尽管身份众多,但在一问一答间,记者却深深感受到了一位研究和教育工作者的热忱。整个访谈过程中,窦德景以其深入浅出的讲解,让复杂的技术问题变得通俗易懂,久违的课堂感,让记者对人工智能的复杂概念和技术细节有了更深刻的理解。
北电数智首席科学家窦徳景
基座大模型疯卷模型参数,AI是一本经济账
由于行程较紧,初见窦德景,便被“划重点”似的推荐了关于人工智能领域的权威文献及新闻报道,然后窦德景从AI技术在相关行业场景应用如何落地展开讲解,并着重强调了AI经济账的重要性,尽管科研投入的直接经济效应难以量化,但其成本和产出的关系相对容易计算。相比之下,行业应用中的AI经济账则更为复杂。
他举例解释说,“在蛋白结构预测领域,传统方法如冷冻电镜鉴定的成本高达上亿。如果使用AI技术能够以更低的成本获得比较准确的结果,那么AI就展现出了其明显的优势。”
“现在问题是在全球范围内,不管哪个行业用了AI,投入了大模型,最后企业能否营收划算,这还是很困难的问题。”他认为在没有出现杀手级应用的情况下,如何确定投入与产出的关系,这是一个需要深入研究的问题。因此,尽管AI技术在科研领域取得了显著进展,但在实际应用中,如何量化其投资回报率(ROI)仍是一个挑战。
同时,在全球范围内,AI技术的发展正推动着算力资源的争夺。基座大模型的竞争不仅是模型参数的卷积,更是对底层异构技术的需求。
对此,窦德景提出了一个引人深思的推测:尽管人脑拥有约100万亿参数(注:神经元连接的数目),但实际使用中可能仅涉及其中不到十分之一,因此,10万亿参数可能是AI模型发展的一个关键节点。“以后就是这样的发展趋势,我觉得10万亿会是一个门坎。”他进一步解释说,一旦达到这个量级,模型的优化将不再依赖于参数规模的增加,而是转向其他方面的改进。
因此,为承接万亿参数的模型,未来推动万卡集群的建立也是势在必行。而在当下一超(英伟达)和多强的算力环境里,如何有效利用现有多元算力资源,提升AI产业的核心竞争力的同时,降低企业使用AI算力的门槛并助力AI产业发展,也是从国家到社会,再到北电数智这样一家人工智能原生的国有企业在思考、在投入的事。
让国产芯片从实验室走向现实应用
谈及国产芯片的发展,窦德景坦言:“我们北电数智的一个任务就是让不同的国产芯片一起跑起来,现在已经初见成效。”
芯片发展关系到数据安全。因此,发展多种适配技术,可以更高效地利用国产芯片处理不同类型的数据,同时确保数据的安全性和模型的性能。
在向记者解释“混元适配”概念时,窦德景认为这个概念有一个很重要的方向,也是当前企业的重要任务,“通过集成各种芯片以提供综合算力,并在云平台上运行多样化的大模型,包括基础模型和特定行业的定制模型,其中不同的芯片将根据其在图像处理、视频生成、文本处理和语音识别等不同领域的专长发挥各自的优势。”
相较于市面上眼花缭乱的芯片参数,在现实环境中应用芯片到大模型训练和推理至关重要。这不仅需要依赖芯片厂商在测试环境中提供的报告,更要在实际的政务、医疗、文化等大模型中进行实际测试,利用真实数据来验证性能。
从“谁来用”到“怎样用”,通过举例论证,窦德景一一作出解答。“每个芯片厂商都会说自己的芯片不错,北电数智作为一个有国资背景的企业,没有跟任何芯片厂商做绑定,是可以提供较为公正、客观的评测意见。”窦德景指出,在高性能计算领域往往需要多卡并行,然而由于卡与卡之间需要互联,这可能会导致芯片的实际性能低于单卡原本性能。他还表示,“我们通过对芯片进行实际场景深入评测,获得芯片实际运行结果,并形成对厂商具有指导意义的评测报告。这不仅需要国家的大力支持,也需要在实践中不断验证和优化,以确保实验室的理论成果能够在现实世界中发挥应有的作用。”
让国产芯片实现从“可用”到“好用”的转变,是无数以窦德景为代表的人工智能领域专家学者,对国产芯片跨越式发展和确保数据安全可控的坚定信念与殷切期望。也正是他们从实际应用场景出发,真实准确地评估,助力国产芯片优化,提高其竞争力。
临近采访尾声,谈及与北电数智携手同行,他期待可以共同研发更多能够快速落地的技术产品,通过加速芯片混用、降低智算成本,从而推动国产芯片的繁荣。“虽然国产芯片在技术成熟度和市场应用方面与国际先进水平还存在一定差距,但通过不断的技术创新和产业生态建设,完全有信心实现国产芯片的突破和发展。”窦德景说。(文/朱家齐)
窦德景讲解大模型训练幻觉问题:
在短暂的采访中,窦德景也特地针对大模型及行业发展所面临的挑战“着墨良多”。
作为新时代的基建,乃至国家间科技、经济竞争的焦点。大模型的训练依赖于大量的数据。可如果这些数据中存在错误信息或带有偏见,模型在学习过程中就会吸收这些缺陷,导致在生成文本时产生模型幻觉。
“幻觉问题通常发生在模型试图生成与事实或者历史相关的答案时。例如,当问到‘姚明是否获得过奥运奖牌’时,模型可能会基于姚明在篮球领域成就相当的人和奥运奖牌的关联性,错误地生成肯定的答案。而即使存在明确的历史事实和正确答案,模型也可能因为生成算法的特性而给出错误信息。”窦德景说。
不同于发布会现场直播时的郑重其事,访谈中的窦德景,在解释较为复杂的概念问题时,往往简明扼要却又通俗易懂。记者又以自身实例表示,在利用模型搜索自己的作品,并通过替换同事姓名搜索各自作品的时候,发现生成的结果却出奇地一致。
对此,窦德景解释,当提到相关媒体时,模型可能会自动联想到最有名的记者,这是一种联想偏差或自注意力偏差。窦德景进一步解释说,“在我看来,现在幻觉问题基本上已经解决了,幻觉问题怎么产生的?你本来问一些事实和历史问题,如果让它生成,这本身方向就是不对的。生成式AI给你的答案是概率最大,或者说最应该发生的答案,比如,和姚明一样的篮球运动员很多都得过奥运奖牌。模型可能会更关注篮球运动员和奥运奖牌的关系,从而忽略姚明,进而给出姚明得过奥运金牌的答案。这种错误我们叫模型幻觉。模型幻觉产生的原因是因为模型的关注度出现了偏差,将重点错误的附着在了非重要的词段上所导致的。
“北电数智目前在北京市某委办局政务大模型上就很好的规避了这个问题。在技术层面,通过基于注意力区域合理性分析的幻觉监测技术,能够校验模型是否产生了幻觉,并通过对区域关注度的调整,降低了模型产生幻觉的概率。同时还通过创建一个安全可控推理链,实现对政务敏感词的筛选和屏蔽,确保模型互动过程中能够降低或者杜绝错误信息,提升模型问答安全合规的同时降低了模型幻觉。这对大模型在政务场景下的应用是非常有意义的。”