8 分鐘 2024年2月15日
顧客在咖啡店使用QR Code電子支付

生成式人工智慧對金融服務的價值核心

作者 萬 幼筠 Thomas Wan

安永管理顧問股份有限公司 總經理

專精於數位轉型與科技風險、資訊科技治理與法律、資料保護,以及數位鑑識調查與分析服務,在資訊安全領域擁有多項國際專業資格,具國內外風險管理經驗。

8 分鐘 2024年2月15日

顯示相關資源

  • 安永金融產業文摘 - 2023年10月號

    下載 10 MB

本文將透過生成式人工智慧(以下簡稱生成式AI)之應用,進一步探討其帶來之資安風險,以及金融業在掌握先機、控管風險之下所帶來的競爭優勢。

概要
  • 生成式AI於金融領域可能的發展與面向
  • 生成式AI的挑戰與侷限性

雖然銀行與金融機構多年來一直在各種前、中、後臺的服務中,嘗試部署使用數據分析與類似專家系統,或決策支援系統等類型的人工智慧應用,包括管理信用風險和欺詐;然而,金融服務中的生成式AI與之前各類型的智慧型應用方法相比,儼然發生了重大變化。

生成式AI帶來的潛在可能,讓金融業在面對未來數位金融發展的大趨勢與推力之下,銀行業主管與從業人員莫不期待此類新穎的智慧型應用,具有深度改變更廣泛金融業務功能的潛力。

許多以生成式AI為基底的應用系統已被認為具有優化人力的專業水準,且在協助銀行從業人員處理繁複的計算分析與系統開發、提升生產力或降低大量人力投入等領域最受期待,其中包括重新定義財務諮詢、保險索賠處理、客戶行銷、參與及服務的未來發展可能性。法遵與合規性監控、聯絡中心營運、應用程式開發及維護等內部應用程式也在考慮範圍內。

然而,目前該技術仍處於早期階段,生成式AI必須在一個生態系統中使用,將其與人類專業知識相結合,促進協同作用,利用兩者優勢來提供準確的見解並創造價值。該技術主要價值領域分為兩個主要類別:

  • 營運效率:透過自動化日常任務(例如資訊審查、比較、分類及綜合)以提高生產力並降低成本。
  • 增強知能:透過提供見解、建議、創意內容及決策支援來協助人類專家。

這兩大類型使用範例的擴展,是由該生成式AI技術提供可訂製化或避免人為疏漏處理的金融業務經營支援與金融風險管理功能,相較傳統大數據分析而言,人工智慧有顯著進步。過往的人工智慧應用在圖靈測試(Turing Test)方面,從未有類似生成式AI經歷圖靈測試如此讓人驚艷的結果,例如以色列AI新創獨角獸於2023年3月的全球大規模圖靈測試得到突破三成的測試結果,象徵生成式AI類似人類的推理與交流,已產生數十倍的提升效果,特別是在解析與理解文本等非結構化資料方面。

透過以自然的人類互動或問答形式查詢資料,並提供自然語言指令來創建或完善新的業務內容,此種進展不但實現更多潛在用途,更帶給金融業無窮的期望,對其他產業亦然。

生成式AI於金融領域可能的發展與面向

由預訓練(Pretrained)機器學習模型支援的生成式AI工具,正悄然改變銀行業內部的作業面貌。無論是和研究機構與大學之間的產學合作,或銀行業促進內部數位轉型,與顧問產業或金融資訊服務業者與金融中介機構者的概念驗證合作,甚至銀行業內部自行研究開發,生成式AI無疑將逐漸成為金融經營事業檯面上最重要的議題之一。

儘管我們仍處於生成式AI革命的開端,然基於ChatGPT在不到3個月的時間內就獲得超過1億的每月活躍用戶,使其成為史上成長最快的應用系統。這些顯著的進步站在生成式AI的最前沿,突破了機器處理文字及語言的界限。

但毫無疑問地,銀行業的許多領域都將不斷發展。預計金融服務中受影響最嚴重的垂直行業,包括消費性金融為主的銀行、財富管理相關機構、中小企業銀行、商業銀行以及投資銀行和資本市場機構。縱然生成式AI要透過類似如ChatGPT等大型語言模型(Large Language Model)作為核心運作邏輯,以支援各類金融應用系統的智慧能力擴充。

然而,生成式AI也面臨原生自人工智慧發展的先天風險課題與挑戰,基於金融業主管並不了解其行業中大多數生成式AI應用的考量,加上監理機關尚未全面掌握此類技術對金融消費與市場的影響,在在減緩金融業採用生成式AI的導入速度。

大型語言模型的採用引發各領域行業觀察家、學術界、監管機構及廣大公眾的討論與不同觀點,敦促各國政府加快人工智慧監理與治理之聲不斷高漲,以因應生成式AI模型的廣泛使用及其帶來的相關風險。主要議題逐漸轉移集中至生成式AI的倫理挑戰、隱私、信任及安全方面。

儘管有這些擔憂,人們普遍認為生成式AI將改變眾多產業的工作方式。而所有行業確實也投入了大量的時間、金錢和資源以積極評估這項技術,企業在人工智慧方面的支出水準一直在迅速增加。以下是生成式AI在金融業可能適用的場域:

1. 檢測及預防詐欺

人工智慧在銀行業的一個主要應用是防止詐欺。根據雜誌報導,2021 年網路犯罪造成的全球損失為6兆美元,預計至2025年將達到10.5兆美元。為了保護其業務,銀行必須認真確保資料安全。

今全球許多銀行都設有大型防詐欺部門,然而,傳統防詐部門的運作與維護成本可能很高,囿於詐欺樣態變化快速,案件類型層出不窮,這類部門在打擊金融詐欺上成效有限。例如全球推動的理專風險管理與我國的理專十誡,單靠內控、道德勸說以及各類可能警示的指標,常在員工士氣與適度管理上犯難。

而使用新的生成式AI技術,可以追蹤位置、設備及作業系統方面的交易,進而可標記任何不符合預期模式的異常或行為,銀行防詐人員便可審查可疑行為並決定是否值得進一步調查。與傳統數據分析方式不同之處,生成式AI可以不斷挖掘合成資料,並更新其偵測演算法,以跟上最新的詐欺樣態。這種主動(Active)方法可以幫助銀行在過去詐欺防禦的演算上,進一步提升預判能力。

銀行也可以使用生成式AI要求用戶在存取其帳戶時提供額外驗證,例如人工智慧聊天機器人利用對客戶有更深層的認知,要求使用者回答安全問題,或執行類似多重身分驗證(MFA)的進一步身分確認詢問,銀行可透過多種方式使用生成式AI進行客戶服務互動體驗,進而提高效率並保護自己免於詐騙。

2. 管理風險並提高信用評分精準度

風險管理對於避免金融災難與維持業務平穩運作至關重要。因此,銀行既有的風險處理準則乃基於國際清算銀行的巴塞爾資本協定(Basel Accord),該協定的運作品質也高度仰賴有品質的數據累積。當以歷史資料進行訓練時,生成式AI可以偵測並識別潛在風險與金融風險,提供早期預警訊號,以利銀行有時間適應並預防(或至少減輕)損失。
銀行專用的客戶信用評分也是如此。銀行可以利用機器學習演算法與人工智慧分析多個來源的大量數據,創建更全面的貸款申請人財務狀況,而不是依靠傳統的信用評分元素來確定信用價值。

3. 進行財務預測

生成式AI可識別歷史財務資料中的模式和關係,甚至根據假設場景進行模擬,幫助銀行進行財務預測並產生合成資料,評估一系列可能的結果並做出相應計畫。簡而言之,生成式AI可以回顧過去,幫助銀行對未來做出更好的財務決策,並創建綜合數據以對風險曝險進行穩健分析。

4. 依照客戶偏好客製的行銷方式

銀行常需要投資具備精準且客製化的行銷,避免盲目行銷帶來的巨大成本,更需排除客戶因接到浮濫的行銷電話而導致厭惡感,進而在競爭中脫穎而出並贏得新客戶。但這需要大量且深入的客戶分析,可能既昂貴又耗時。

生成式AI可以透過分析客戶偏好與線上行為,由人工智慧預判,將潛在客戶分成偏好類型的群組,而非僅憑經驗概分的客戶類型,銀行便可根據市場狀況和趨勢,為不同群體量身定制行銷活動。此外,銀行也可以使用生成式AI幫助創建適合的行銷素材,並追蹤轉換率及客戶滿意度,再透過A/B測試的執行以測試其效度。

除了提供類似人類的全天客服支援,包括回答客戶詢問、個人資料更新外,生成式AI還可進一步分析客戶數據,做出個人化的產品推薦。例如,當客戶提供利率、首付金額、信用評分等相關詳細資訊後,生成式AI可快速準確地提供其可負擔的抵押貸款,甚至根據客戶的消費習慣、財務目標及生活方式推薦信用卡,以這種方式交叉銷售其他金融商品。

5. 銀行前臺業務 — 對話式金融智慧介面

在對話式金融的背景下,生成式AI模型可用於產生更自然且與情境相關的回應,因為經過訓練後,它們可以理解並產生類似人類的語言模式。例如,某知名國際金融服務公司採用OPEN AI聊天機器人,利用公司內部蒐集的研究與數據源,為財務顧問提供支援。該對話式金融為客戶提供相關支援與個性化的財務建議。

6. 銀行中臺業務 — 產生申請業務申請的准駁解釋文稿

在銀行業的貸款決策過程中,人工智慧幫助銀行與金融機構評估客戶的信用額度,並根據風險設定貸款定價。然而,決策者與貸款申請人都需要對人工智慧決策做出解釋,例如拒絕申請的原因,以培養信任並提高客戶對未來申請時的認識。

條件生成對抗網路(GANs)是一種生成式AI變體,用於對用戶申請准駁與否的友善解釋。從簡單到複雜分層組織拒絕原因,採用兩層條件為申請人產生更容易理解的解釋

7. 銀行後臺業務

  • 會計職能自動化:專用於GPT的會計審計大型生成式模型具備深度學習功能,可在大多數會計任務中實現較高的自動化率,可協助稽核部門在執行財務稽核時,將所需的生成式AI應用、應付帳款(包括發票掃描或電子發票擷取和處理)等功能自動化。
  • 舊有傳統軟體維護:銀行在許多核心處理上仍依賴傳統(如70年代或80年代)以COBOL等傳統程式語言編寫的軟體,但目前很難找到傳統程式語言的開發人員來進行相關維護。生成式AI模型可以流利地使用所有語言,藉此加快開發速度並降低技術成本,而技術成本約占典型銀行成本的10%。
  • 科技風險與資訊安全監控與強化:銀行業龐大的交易資訊在應用軟體層面、資料庫層面、作業系統與網路層面等,都會產生龐大的資料流與交易相關的網路流量與活動。由於內外部各類科技風險與資安需求,必須經常性地針對各類電腦稽核軌跡與內容交叉比對,以預判即時發生的事件。其最困難之處在於,若出現事件,如何交互比對發現風險發生事件的原因來源,而生成式AI最能夠以善於理解的介面並透過交互分類尋找洞見,以追尋答案的可能領域。
  • 應用程式現代化:銀行希望擺脫對過時軟體的依賴,並不斷努力實現軟體現代化。生成式AI模型可將程式碼從舊軟體語言轉換為現代軟體語言,開發人員則可驗證新軟體,從而節省大量時間。目前的生成式AI對電腦程式語言開發的精確度、速度及先進度是其應用領域已獲得重大成功的一個範例。
  • 文件分析:生成式AI可用於從年報、財務報表等大量財務文件中處理、總結並提取有價值的信息,進而更有效率地分析與決策。
  • 財務分析與預測:透過學習歷史金融數據,生成式AI應用可捕捉資料中的複雜模式和關係,對未來趨勢、資產價格及經濟指標進行預測分析。模型若經適當微調,甚至可透過模擬市場狀況、總體經濟因素及其他變數來產生各種場景,從而為潛在風險與機會提供有價值的見解。此外,透過利用對人類語言模式的理解及產生連貫的、上下文相關的回應的能力,生成式AI可以為使用者提出的財務問題提供準確而詳細的答案 。

這些模型可以在大型金融知識資料集上進行訓練,以利用適當的資訊來回應各種金融查詢,包括以下主題:會計原則、財務比率、庫存分析、監理合規性。

生成式AI的另一金融應用為優化投資組合。分析歷史財務數據並產生各種投資場景,生成式AI模型可以幫助資產管理者及投資者確定最佳的資產與財富管理方案,同時考慮風險承受能力、預期報酬等因素,金融專業人士能夠調整投資策略,優化風險調整後的報酬,就投資組合做出更明智的決策。

  • 財務報告生成:生成式AI可以根據可用數據自動創建結構良好且前後連貫與資訊豐富的財務報告,這些報告可能包括:資產負債表、損益表、現金流量表,這種自動化不僅簡化了報告流程並減少人工工作量,還確保了報告的一致性、準確性和及時交付。此外,生成式AI模型可用於產生針對特定用戶需求的客製化財務報告或視覺化效果,使其對企業與金融專業人士更有價值。
  • 回應監管機構的要求:作為受到嚴格監管的金融行業參與者,銀行經常收到監管機構的要求。金融機構可以使用生成式AI所產生符合個人資料保護法規需求的訓練資料。透過學習真實金融資料的模式和關係,生成式AI模型能夠創建與原始資料非常相似的合成資料集,同時保護資料隱私。例如使用訓練機器學習模型、進行壓力測試、驗證模型。

生成式AI的挑戰與侷限性

在銀行業使用生成式AI有其挑戰和限制,生成式AI也具備新進技術帶來的雙面刃,如在處理敏感的客戶資料時,應謹慎使用。

生成式AI的另一個限制是,如果輸入資料不完整,可能產生不正確的結果,或為了組合出專屬內容,產生如吹噓或誇大的查詢結果,學術界與法律界以及技術實踐產業常稱此為人工智慧幻覺(AI Hallucination)。因此,銀行需要確保數據的合規與準確,否則可能導致糟糕的財務決策。

根據經驗,不應讓生成式AI在貸款核准與其他影響客戶的重要決策中擁有最終決定權,並應加入人類參與(Human Oversight),並在此類AI應用肇始之處,針對投資開發與引進此應用對銀行可能的衝擊與效益,進行倫理審查(Put Human on The Loop)。

在獲得核准開發時,生成式AI應用取得規格、搜集清理資料、整合應用並開始布建等方面,於各階段投入人員進行評測(Put Human in the Loop),並在上線前的使用者測試時,讓需求與開發團隊以外的使用者進行保密的使用情境測試(Put Human off the Loop)。若非此,可改就讓生成式AI承擔所有繁重工作,最後由金融專業人士做出最終決定。

從國際趨勢觀察,各國銀行勢必擁抱生成式AI才能生存,以防止競爭對手在下一代金融科技發展的智慧型(Smart Finance)或認知型金融(Cognitive Finance)取得領先優勢。

但生成式AI也面臨重大的倫理(Ethics)與資訊安全(Cybersecurity)質疑,針對引進AI可能帶來的滅絕風險(Extinction Risk)。除了聯合國秘書長在2023年7月呼籲全球,人類在大量使用AI時可能存在潛在風險之外,早在2022年底美國通過的人工智慧風險管理框架V1.0(NIST AI Risk Management Framework V1.0)、2023年5月的七大工業國會議廣島人工智慧進程協議(G7 Hiroshima AI Process),以及2023年6月通過將實施的歐盟人工智慧法草案(AI Act Draft),都在提醒使用AI潛在的倫理與風險緩解課題。

對於人類社會數位進程與未來應用科技所帶來衝擊的應用與安全隱憂,歐盟網路安全局(ENISA)於2022年初提出人工智慧與演算法的研究報告(ENISA, (2022), “Securing Machine Learning Algorithm”, Athens/EU.),將人工智慧應用的資訊安全風險分為兩大類 — 廣義的人工智慧安全風險與狹義的人工智慧安全風險。其分類如下:

  • 廣義的人工智慧的網宇安全:人工智慧模型與演算法的韌性不足,以及易受攻擊的漏洞。因此用於人工智慧訓練與應用的資料與數據,若缺乏資料治理將難以達到可信賴人工智慧所需之演算法穩健安全性、隱私保護、可解釋性、公平性與安全性。此部分為目前全球人工智慧法規所律定,亦為我國金融監督管理委員會與銀行公會所草擬之人工智慧使用規範之律定內容。
  • 狹義和傳統的AI網路安全範圍:旨在保護人工智慧系統的生命週期內資產(人工智慧元件及相關資料與流程)的保密性、完整性、可用性免受攻擊及可追溯性。此部分之應用包含使用人工智慧,用以支援傳統網路安全威脅分析與防禦技術或利用人工智慧作為工具/手段:建立先進的網路安全方法(例如使用生成式AI開發更有效的安全程式碼或控制手段),並促進執法機構與其他公共當局更有效地因應網路犯罪,(例如因應惡意使用人工智慧建立更複雜的攻擊類型)。

依照美國政府白宮所發布的 「安全與可信賴人工智慧行政命令第14100號(Safety , Secure and Trustworthy Artificial Intelligence Executive Oder, dated by Oct./30th/2023)」,與歐盟所公布的「人工智慧法草案(Draft European AI Act date by June/14th/2023)」,此兩國際間最重要的人工智慧安全治理之法規,均認為人工智慧的安全課題可分為AI發展之 1. 資料治理的安全性, 與 2. 機器學習演算法的安全性,然隨著生成式AI(例如ChatGPT 4.0 或 Llama 2)等高端應用出現,使用基礎模型(Foundation Model)進行機器學習(ML)訓練的先進AI 安全,實為AI應用安全重中之重。因此歐盟資訊安全局(ENISA)亦定義機器學習之開發流程與方式,以闡明AI開發與佈建的安全重點。

ENISA認為機器學習(ML),可以定義為機器從數據中學習以解決任務而無需明確程式設計的能力。機器學習演算法依其特性,例如它們需要大量資料來學習,使得它們成為項目團隊必須考慮且非常具體的網路威脅主題。ENISA亦針對下列AI主要課題可能的相關漏洞,並提出解決這些漏洞的安全控制。

  • 機器學習(ML)演算法分類法用於威脅分析與漏洞偵測:首先定義一個分類法來描述演算法的主要特徵。根據它們的核心功能(如學習典範)對不同的ML演算法進行分類,利用過去發生過之威脅與漏洞資料進行訓練,用於分析現有網路系統可能的漏洞與威脅。
  • 確定相關威脅和漏洞:其次,為ML演算法確定要考慮的網路安全威脅及相關漏洞的清單。威脅與分類法相映射,以突顯它們與ML演算法的核心功能與生命週期之間的聯繫。
  • 安全控制措施:最後,給出一個解決先前考慮漏洞的安全控制措施清單,它們也對應到ML分類法以選擇正確的安全防禦策略。
    歐盟網路安全局(ENISA)並針對人工智慧應用在籌獲與開發布建等階段,依照其技術與應用的網與安全思維提出剖析如下:

結語

值此人工智慧浪潮來襲並衝擊各產業之際,銀行業的競爭優勢即在於風險管理的優良實踐,因此如何藉由國際人工智慧的倫理與安全標準之實踐來因應充滿未來各種可能性的AI應用,是最佳的競爭優勢布建。

關於本文章

作者 萬 幼筠 Thomas Wan

安永管理顧問股份有限公司 總經理

專精於數位轉型與科技風險、資訊科技治理與法律、資料保護,以及數位鑑識調查與分析服務,在資訊安全領域擁有多項國際專業資格,具國內外風險管理經驗。