▲ChatGPT只有演算法的模式建構,沒有事實的真假。(圖/路透)
● 諸葛俊/博士,屏東大學大武山學院兼任副教授
狂飆的時代,ChatGPT聊天機器人話題不斷火熱延燒,有人震驚它的強大功能,有人擔心未來工作會被取代,老師擔心學生作業抄襲,於是有了使用倫理的討論。這些驚奇或擔憂都沒有錯,但更人憂心的應該是演算法(Algorithm)統治的世界,習以為常的對AI機器人產生資訊依賴,進而產生認知情結,那這個世界可能更會真假不分了!
學生作業靠ChatGPT產出 老師防不勝防
Open AI去年底推出ChatGPT以來註冊用戶屢創新高,自然造成世界各先進國家的熱切討論。在台灣,二月以來各類媒體每天持續不斷的新聞與評論,社群媒體更是洗版式的串流訊息,每個人都有每個人的使用經驗,各行各業也有不同的喜悅和擔憂。行銷業,ChatGPT提供大量的策略分析,使行銷人員更能夠瞭解市場;文字工作者也多能運用ChatGPT產出的文章作修改,節省許多工作時間;由ChatGPT出版的文學著作已經攻佔亞馬遜電子書排行榜;但各大學教師更擔心不已,包括程式設計的學生作業都能依賴ChatGPT,即連碩士論文也都能在無註解出處的情況下產出,找不到抄襲和引用來源,指導老師防不勝防,學術倫理受到嚴重挑戰。
▲美國人工智能公司「OpenAI」開發的「ChatGPT」掀起熱議。(圖/路透)
AI機器人滿足人類求知欲
只要是腦力的事情有太多的事情都可以下指令由ChatGPT代勞,尤其這套系統也可以由人機訓練創造從無到有的驚奇,機器老師、機器情人、機器人物、機器著作,無奇不有。怎麼辦?其實就是AI機器人直戳人類的軟肋---求知,對「不知道」的事情感到焦慮,急切的必須要「知道」,AI機器人滿足人類的「知道」,至於真假就不是AI機器人的責任。
就是因為這樣,使用者不會使用ChatGPT去查已知或確實的事情,因為不必要;相反的,大多人會使用它去問一些不知道、似是而非、沒把握的事情,產出的答覆有其系統內演算偏差的真假融合結果,在使用者的認知情結下,就更容易相信機器人的文本內容。這是演算法無法避免的結果,也是使用者必須的媒體使用素養,否則ChatGPT就是很危險的中介工具。
ChatGPT正經八百回答 預料未來假訊息嚴重
ChatGPT最大功能是大大降低使用科技的門檻,而且侵人個人的生活經驗。使用它只有演算法的模式建構,沒有事實的真假。所以ChatGPT作策略分析、行銷建議之類沒有標準答案的敘述是可以接受的,但必須有正確答案的回覆就會呈現「正經八百」的「胡說八道」。正因如此,假新聞、假訊息傳播可以預期的將會更加嚴重,而其傳播工具已經不只是中介平台的責任歸屬,社群媒體、自媒體,甚至個人最基礎的訊息交流都會受到影響,這才是AI機器人對於訊息傳播的最大打擊。
這些都是可以預期的將來,對於AI聊天機器人的科技發展衝擊應落實在公共政策的預防措施,NCC和數位發展部相關單位應該審慎研擬這類訊息產出平台的監督政策或法令,包括:保障個人隱私和權益,資料所有權人,可要求AI生產者將資料下架;提升AI演算法透明度,並且可被檢驗、可被稽查;資料來源可被查核、可被追蹤;AI生產者定期公佈內部監看報告等。制訂防禦性法令是當前科技掛帥時代的必須超前佈署的做法,否則AI聊天機器人產出的訊息不只是使用倫理的學術討論,假新聞、假訊息竄流不止是社會問題,更有機會直接衝擊國家安全。
● 以上言論不代表本網立場。歡迎投書《雲論》讓優質好文被更多人看見,請寄editor88@ettoday.net或點此投稿,本網保有文字刪修權。
我們想讓你知道…ChatGPT演算法(Algorithm)統治的世界,讓大家習以為常的對AI機器人產生資訊依賴,進而產生認知情結,這個世界可能更會真假不分了!