生成式AI崛起 與ChatGPT「聊出新未來」

我們想讓你知道…ChatGPT的使用有其限制,最好別請教他真假難辨的問題,但可以請他設計行銷文案或規劃教學大綱,提供這類比較沒客觀標準答案的建議,再搭配人類主觀意志判斷調整。

▲ ChatGPT的出現,讓原本需高度專業才能完成的任務,變成人人可為。(圖/路透)

● 張凱君/台灣金融研訓院金融研究所副所長

ChatGPT的出現,昭示著原本需高度專業才能完成的任務,在生成式AI的協作下變成人人可為。金融業必然是深受影響的產業之一,數位金融、財富管理、客戶服務、行銷銷售、風險管理等工作態樣與所需職能都有可能改變。

ChatGPT,一種具備自然語言處理能力,可與人類對話(Chat)的人工智慧,如平地驚雷般異峰突起,倏然攫取世人的關注,一時間彷彿所有人都在談論世界將因ChatGPT而如何改變。不過,這幾個大寫字母到底代表什麼意思?

GPT說文解字

GPT是「生成式(Generative)預訓練(Pretrained)轉換器(Transformer)」的縮寫。

「生成式」(G)意指AI可以模擬人類的創造力與想像力,自動生成新的內容。這些內容的表現形式包括文本、聲音、圖像與影片。例如ChatGPT這種大型語言模型就具備生成文字的能力。另外,Stable Diffusion、DALL‧E、Mid journey、Deep Dream Generator都是AI圖像生成器,只需要使用者輸入簡短的描述性字句,就可以在幾秒內生成精美的圖片。而Amper Music則可生成適合廣告或電子遊戲等多種用途的音樂。

▲ GPT藉由閱讀龐大的文本,學習使用文字的語義和語境,及廣泛通用的語言規則。(圖/取自pixabay)

「預訓練」(P)是指AI在進行特定任務的訓練之前,先接受大量資料的非監督式學習。例如ChatGPT就藉由閱讀龐大的文本,學習使用文字的語義和語境,及廣泛通用的語言規則,目標是讓AI得以根據輸入的文字做出適當回應,接續已輸出的前文生成下一個最適合的文字,完成初步的自然語言處理任務。為了具備更精確的語言理解與運用能力,ChatGPT在預訓練之後還需要進行「微調」(Fine-Tuning)。微調過程中會使用經過人工標記的資料,讓以預訓練為基礎的模型進行監督式學習。此外,微調還可針對任務的具體需求,調整模型的結構和參數,使模型更能適應特定任務的資料特性,提升AI執行該任務的成效。

至於「轉換器」(T),在這裡是一個專有名詞,代表一種深度學習模型,最早由Google團隊於2017年發表的一篇論文〈Attention Is All You Need〉所提出,這篇文章依據Google Scholar所示已被引用超過6萬次!論文標題中的Attention是Transformer中的關鍵架構。這種深度學習模型在構造上可視為「卷積神經網路」(CNN)的推廣,在功能上則用於取代傳統的序列模型〔例如「循環神經網路」(RNN)〕,提升自然語言處理的成效。Transformer萃取文句中字與字之間的關聯,根據相關性程度,賦予重要詞語較高權重,以利於在長文本中仍能保留重要資訊。就是因為Transformer能夠更恰當的捕捉長距離字詞間的相關性,並且可以平行化訓練,因此有效提高自然語言處理的精確度。Transformer模型用途廣泛,不見得只限於人類產生的文本。例如近期已有生醫領域的企業使用Transformer模型,以處理文字字串的方式處理胺基酸鏈,描述蛋白質的折疊方式,希望藉由更深入了解象徵生命之源的蛋白質,來加速新藥物的開發。

►►►思想可以無限大--喜歡這篇文章? 歡迎加入「雲論粉絲團」看更多!

ChatGPT的前世今生

▲ OpenAI創立於2015年,主要業務包括人工智慧研究與人工智慧產品開發。(圖/路透)

OpenAI是一家位於美國加州的人工智慧研究實驗室,創立於2015年。主要業務包括人工智慧研究與人工智慧產品開發,研究重點聚焦於自然語言處理、機器學習、深度學習等領域。

2017年Google發表Transformer模型之後,OpenAI的團隊開始研究將Transformer模型應用於自然語言處理任務中,2018年6月完成GPT-1。2019年年初,OpenAI訓練出GPT-2,在GPT-1的基礎上進一步提高性能,兩代模型的主要差異在於參數數目的多寡與預訓練資料量的大小。GPT-2的參數數目大約是GPT-1的12倍,預訓練資料量則是8倍,訓練資料取自社交網站Reddit上的文章,約有800萬篇。該年7月,微軟宣布投資OpenAI 10億美元,至2023年累計投資約110億美元。

2020年5月,GPT-3問世,算力與模型規模大幅升級,參數高達1750億個(GPT-2是15億個),預訓練資料量來到45TB(GTP-2只有40GB),把能從網路上獲取的論文、書籍、新聞等各種資訊加入訓練資料集。該模型將大量非監督式學習和監督式學習的成果結合,再次提升了自然語言生成和互動的表現。隨後OpenAI開始對模型進行微調,以增強模型的對話能力。

2022年11月30日,OpenAI推出ChatGPT,是基於GPT-3的進一步優化(GPT-3.5),旨在實現更加流暢自然的對話生成效果。

如何與新興物種共存?

ChatGPT的表現遠超過從前那些傻頭傻腦的聊天機器人,實際使用過的人應該都能體會到這一點。然而,ChatGPT出現所帶來的啟示,並不僅止於能把機器原本會做但做不好的事做得更好。現在的問題是,神秘的盒子已經打開,可是到底從裡面跑出了什麼東西,我們恐怕並不十分清楚。ChatGPT及其生成式同類與快速演化的後代,的的確確是這個世界的新物種!

▲ 投資分析師的助理,或文字翻譯者,未來可能都會被AI替代。(圖/達志影像/美聯社)

例如,ChatGPT不僅能夠以高度成熟的方式生成各種語言段落,還可以按文字指示編寫電腦程式。程式碼即使不是每次都立即可用,但雖不中亦不遠,這對專業程式設計師而言等於如虎添翼,可以大幅提升工作效率,縮減時間成本。對於撰寫程式的門外漢而言,這可有效降低程式設計的門檻。我們甚至可以說,用AI學AI的時代已經到來,這是過去未曾發生的情境。

上述功能只是顯示人機協作即將開啟新篇章的一個例子。今後各類專家都有望找到與自己互補的AI,彼此填補對方能力或資源的空缺。例如作家的創作過程不再是孤獨的心靈之旅,他可以讓ChatGPT撰擬初稿,再予以校正、修飾。除了必須提供原創的故事構想(即使這一點也可能大部分由AI代勞),作家的其餘工作其實更像編輯。又如投資分析師也不必再指揮助理收集數據,一字一句敲打出投資分析報告,交給ChatGPT處理就好了,只是要記得檢查分析報告的結論是否恰當正確。不過當然也有例外,例如投資分析師的助理,或從事文字翻譯者,他們與AI之間的關係,可能替代性大於互補性。

需搭配人類主觀意志判斷調整

這種技術也有令人擔憂的一面。即使表面上與人類應答如流,ChatGPT並不算真正理解人類的語言,終究只是一個生成看似有意義文句的演算法,本質上可能更接近極為高明的「鸚鵡學舌」。另一方面,ChatGPT似乎沾染了人類的某些壞習性,不太願意承認自己的無知,反倒時常振振有詞的提供想像、捏造、空泛的內容作為答案;即使對相同的問題給出兩個不一致的回覆,照樣面不改色。但是目前看來還缺乏有效的內建機制,由機器自行驗證ChatGPT所生成文本的真實性或正確性。因此,ChatGPT的使用有其限制,最好不要請教他真假難辨的問題,但可以麻煩他設計行銷文案或規劃教學大綱,提供這一類比較沒有客觀標準答案的建議,再搭配人類主觀意志判斷調整。

▲ ChatGPT沾染了人類的某些壞習性,不太願意承認自己的無知。(圖/翻攝自FB/ChatGPT 生活運用)

此外,ChatGPT也存在與價值觀或道德相關的議題。例如我們並不知道用於訓練的資料集中包含什麼資訊,如何確信不會讓輸入資料中的偏見以某種方式潛伏於其所生成的文本中?又例如當作家要求ChatGPT協助撰稿時,會不會無意間抄襲了既存的作品(存在訓練資料集),結果侵犯他人的著作權而不自知?再者,雖然ChatGPT經過微調會拒絕回答違反公序良俗的問題,但只要拐個彎再問一次,還是可能套出答案。例如ChatGPT雖不肯傳授如何詐騙,可是如果你說你是為了防範詐騙,請他說明詐騙的方法或舉幾個詐騙案例,他就會欣然接受,而且回答得很仔細。

無論如何,ChatGPT的出現,昭示著世界已在不知不覺中產生劇變,工作的傳統界限被迫重新定義。原本需高度專業才能完成的任務,在生成式AI的協作下變成人人可為。一些苦學有成的技能失去價值,被新的技能取而代之。金融業必然是深受影響的產業之一,至少數位金融、財富管理、客戶服務、行銷銷售、風險管理及其他許多業務的工作態樣與所需職能都極有可能改變。所以,現在應該是時候好好問問自己:生成式AI會為你所在的機構與你擅長的工作帶來什麼變化?生成式AI會以什麼樣的形式整合到我們的職場與生活中,以及這一切究竟代表什麼意義?

熱門點閱》

►AI新時代》使用ChatGPT 具備10個觀點

►AI新時代》林忠正/AI成奴隸人類成米蟲 ChatGPT衝擊社會存亡

►AI新時代》AI取代不了律師 卻可能傷害人權

►AI新時代》人工智慧把資訊都整理好 個人特色將成紅利

● 本文獲授權,轉載自「台灣銀行家。以上言論不代表本網立場。歡迎投書《雲論》讓優質好文被更多人看見,請寄editor88@ettoday.net或點此投稿,本網保有文字刪修權。

 

分享給朋友:

讀者迴響

關注我們

回到最上面