中國金融科技行業(yè)發(fā)展研究報告
(前言)
AIGC的飛速發(fā)展正在重塑金融業(yè)態(tài),深刻改變著傳統(tǒng)金融行業(yè)的運作模式和業(yè)務(wù)流程。當(dāng)我們驚訝于大模型越來越“智能”之時,也要意識到技術(shù)大爆發(fā)永遠(yuǎn)是一把雙刃劍。英國哲學(xué)家大衛(wèi)·科林格里奇在《技術(shù)的社會控制》(1980)一書中指出:一項技術(shù)如果因為擔(dān)心不良后果而過早實施控制,那么該技術(shù)很可能就難以爆發(fā);但如果控制過晚,這項技術(shù)已經(jīng)成為整個經(jīng)濟(jì)和社會結(jié)構(gòu)的一部分,就可能走向失控,再來解決不良問題就會變得昂貴、困難和耗時間,甚至難以或不能改變,這種技術(shù)控制的兩難困境就是所謂的科林格里奇困局。
本文研究了AIGC技術(shù)在金融行業(yè)的技術(shù)趨勢及典型應(yīng)用,也探討了其面臨的風(fēng)險和挑戰(zhàn),并對AIGC今后深度賦能金融行業(yè)發(fā)展、應(yīng)對多樣化的風(fēng)險和挑戰(zhàn)提出針對性建議。
一、AIGC的技術(shù)趨勢
金融科技已經(jīng)從“立柱架梁”邁入了“積厚成勢”新階段,越來越多的金融機(jī)構(gòu)積極使用數(shù)字技術(shù)來為金融血脈注入全新能量。人工智能技術(shù)正加速與金融產(chǎn)業(yè)深度融合,以 ChatGPT 為代表的大模型技術(shù)不斷進(jìn)化,經(jīng)歷了從小模型到大模型的重大轉(zhuǎn)變,不僅體現(xiàn)在模型規(guī)模的增長,更體現(xiàn)在算力、算法及數(shù)據(jù)處理能力的顯著提升。
- 萌芽階段:小模型在金融行業(yè)主要基于線性回歸、邏輯回歸或簡單的淺層神經(jīng)網(wǎng)絡(luò),主要應(yīng)用在早期信用評分和推薦系統(tǒng);
- 發(fā)展階段:隨著深度學(xué)習(xí)的興起,基于神經(jīng)網(wǎng)絡(luò)的模型迅速發(fā)展,如卷積神經(jīng)網(wǎng)絡(luò),擅長處理圖像數(shù)據(jù),通過層層卷積提取空間特征;循環(huán)神經(jīng)網(wǎng)絡(luò)能夠處理時間序列數(shù)據(jù),通過記憶過去的信息來分析和預(yù)測未來……這些模型能夠從大規(guī)模數(shù)據(jù)中自動提取特征,顯著減少了對人工特征工程的依賴;
- 突破階段:Transformer通過自注意力機(jī)制能夠高效處理長序列數(shù)據(jù),極大地提升了大模型在自然語言處理和其他領(lǐng)域的表現(xiàn),使其不僅能理解復(fù)雜文本,還能生成多種形式的信息,如文本、圖像和音頻,從而拓寬了AI的應(yīng)用范圍,同時算力的提升使得大規(guī)模訓(xùn)練和部署成為現(xiàn)實;
- 深化階段:隨著大模型的快速迭代、模型性能不斷提升,在通用大模型的基礎(chǔ)上,通過API、MaaS等商業(yè)模式,結(jié)合行業(yè)數(shù)據(jù)調(diào)整即可將通用大模型轉(zhuǎn)化為特定垂直領(lǐng)域的行業(yè)大模型。
二、AIGC的金融場景應(yīng)用
金融行業(yè)屬于信息密集型行業(yè),是大模型技術(shù)的最佳應(yīng)用場景之一。自2023年以來,我國銀行、券商、保險等各類金融機(jī)構(gòu)紛紛積極引入和訓(xùn)練大模型,并探索其在金融領(lǐng)域的實際應(yīng)用。
大模型在金融服務(wù)中的主要應(yīng)用場景示例
資料來源:高金智庫、公開信息整理
三、AIGC在金融行業(yè)面臨的風(fēng)險與挑戰(zhàn)
盡管大模型技術(shù)在金融領(lǐng)域有著廣闊的應(yīng)用前景,但在實際落地過程中仍面臨諸多風(fēng)險與挑戰(zhàn),主要集中在技術(shù)、成本與經(jīng)濟(jì)可行性、對金融系統(tǒng)的潛在威脅等層面。斯坦福大學(xué)的學(xué)者們認(rèn)為,大模型涌現(xiàn)的能力既是科學(xué)興奮的源泉,也是意外后果的憂慮之源。換言之,如果不能引導(dǎo)大模型“向善”,那么它隨時可能傷及人類本身,帶來不可估量的后果。
1、數(shù)據(jù)隱私和安全風(fēng)險
金融數(shù)據(jù)包含敏感的個人和機(jī)構(gòu)信息,而大模型需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練和應(yīng)用,然而許多數(shù)據(jù)質(zhì)量不高、不完整,仍然需要花費大量人力和時間進(jìn)行數(shù)據(jù)清洗與預(yù)處理。另外,模型可能會受到惡意攻擊,如對抗樣本攻擊、模型篡改等。這些攻擊可能會導(dǎo)致模型輸出錯誤的結(jié)果,從而影響金融決策的準(zhǔn)確性和可靠性。
2、數(shù)據(jù)偏見和傾向性挑戰(zhàn)
大模型的訓(xùn)練數(shù)據(jù)可能存在性別、種族甚至政治等方面的偏見。如果這些偏見被應(yīng)用到金融決策中,可能導(dǎo)致模型在決策和預(yù)測中產(chǎn)生不公平或歧視性的結(jié)果,進(jìn)而誤導(dǎo)用戶,致使用戶做出錯誤的決策。
3、大模型的解釋性和可控性挑戰(zhàn)
金融行業(yè)是一個對于模型的可解釋性和魯棒性等要求非常高的行業(yè)。大模型的復(fù)雜性和“黑箱”特性使其決策過程缺乏透明性,而金融機(jī)構(gòu)需要確保其決策的可解釋性,例如在涉及風(fēng)險管理、信用評估等關(guān)鍵領(lǐng)域時,必須能夠清楚地解釋模型的判斷依據(jù)和決策邏輯。
4、訓(xùn)練成本挑戰(zhàn)
大模型的訓(xùn)練和推理過程對計算資源的需求極為龐大,尤其是含有上百億參數(shù)的大模型,消耗大量的GPU、TPU和CPU集群。根據(jù)斯坦福大學(xué)的《2024人工智能指數(shù)報告》,AI模型訓(xùn)練成本隨著時間的推移呈指數(shù)級增長,例如,GPT-4使用了約7800萬美元的計算資源來訓(xùn)練,Google的Gemini Ultra的計算成本近2億美元。
2017-2023年AI模型訓(xùn)練成本預(yù)估
資料來源:《2024人工智能指數(shù)報告》,斯坦福大學(xué)
四、AIGC在金融行業(yè)的發(fā)展建議
AIGC面臨“科林格里奇困局”從來不是“要不要發(fā)展”的問題,而是“如何最大限度揚長避短、向善發(fā)展”的問題,因此發(fā)展仍是AIGC的主旋律。除開技術(shù)層面的革新、合作與應(yīng)用,要想破局,以應(yīng)對好大模型技術(shù)發(fā)展帶來的風(fēng)險和挑戰(zhàn),引導(dǎo)科技健康有序發(fā)展,需要政府、平臺、學(xué)術(shù)界、行業(yè)和公眾多方的共同努力,以及從技術(shù)、法律、標(biāo)準(zhǔn)規(guī)范等齊頭并進(jìn)。
1、全面加強數(shù)據(jù)隱私和安全管理,嚴(yán)防客戶和機(jī)構(gòu)敏感信息泄露。在數(shù)據(jù)收集過程中、訓(xùn)練數(shù)據(jù)、模型訓(xùn)練過程等采取多種措施保護(hù)數(shù)據(jù)安全。
2、建立監(jiān)測和評估機(jī)制,定期評估大模型系統(tǒng)的性能、準(zhǔn)確性和公平性,并及時發(fā)現(xiàn)與解決潛在的風(fēng)險和問題。
3、是提高算法的可解釋性和透明度,使用可視化技術(shù)和交互式界面來展示算法的決策過程。建立審查和評估機(jī)制來消除算法黑盒問題,促進(jìn)負(fù)責(zé)任的 AI 的開發(fā)、部署和應(yīng)用,提高生成式 AI 的安全性、可解釋性和可問責(zé)性。
4、通過完善法律法規(guī)、促進(jìn)跨學(xué)科合作、加強道德評估和促進(jìn)公眾參與普法活動等,推動人工智能健康向善發(fā)展。