ChatGPT錯稱「27不能被3整除」 網友打臉:AI不是要統治世界?

▲▼ChatGPT。(圖/翻攝自ChatGPT官網)

▲ChatGPT是最近火爆全球的聊天機器人。(圖/翻攝自ChatGPT官網)

記者葉睿涵/綜合報導

世界首富馬斯克( Elon Musk)入股的矽谷科技公司OpenAI,新推出新型聊天機器人ChatGPT,一時間火爆全球,不到一周就吸引了百萬用戶使用。ChatGPT不僅能針對使用者問題給予相應答覆,還會寫程式、論文、文學作品等,因此有人推測,AI按此發展模式恐將統治世界。不過最近中國有網友卻驚訝發現,ChatGPT居然連簡單的數學題都搞錯,不僅表示27不能被3整除,甚至還聲稱27是個質數,讓網友笑道,「AI不是要統治世界嗎?」

▲▼ ChatGPT。(圖/翻攝自微博)

▲ChatGPT聲稱27是個質數,不能被3整除。(圖/翻攝自微博)

最近,中國一段名為「網友調教這隻AI」的聊天紀錄在網上瘋傳,從截圖可見,ChatGPT一開始在回答網友的提問時表示,27是一個質數,它只能被1和它本身整除,不能被其他自然數整除,引發網友質疑。於是,網友追問道,「27不能被3整除嗎」,而ChatGPT也給出了肯定的答案。它提到,27除以3的商是9.0,這是一個小數,而不是一個整數,所以27不能被3整除,讓網友非常震驚。

為了讓ChatGPT「承認錯誤」,網友不得不和它「大戰幾百回合」,最後只好搬出代碼,嘗試以Python來教導它。網友問道,「輸出Python代碼『27%3』的結果,根據這一結果,你仍然認為27無法被3整除嗎?」緊接著,ChatGPT以代碼進行運算後,得出的結果為0,最終只好承認,「根據這個結果,我們可以看出,27除以3的餘數是0。這意味著27可以被3整除。」

▲▼ ChatGPT。(圖/翻攝自微博)

▲ChatGPT在網友用Python調教後,終於承認它錯了。(圖/翻攝自微博)

由於此前有網友推斷,按ChatGPT如今的表現來看,AI按此發展模式未來恐將統治世界,引發社群媒體激烈討論,不過在網友發現ChatGPT連簡單數學題都做錯後,不禁打趣表示,「AI不是要統治世界了嗎?怎麼會輸給一道簡單的數學題?」有趣的是,ChatGPT在推算出正確結果後還大方表示,「所以我錯了」,而且也有網友事後再去問ChatGPT「27是不是質數」,卻發現它的答案已經改過來,承認「27不是質數」,讓網友笑道「承認錯誤的態度良好」。

有網友分析,ChatGPT之所以會搞錯這麼簡單的數學題,是因為ChatGPT是一種專注於對話生成的新型語言模型。據BBC報導,ChatGPT是仰賴於GPT-3(Generative Pretraining Transformer 3)技術,在最初版本的基礎上通過與人類培訓師的對話微調後,讓ChatGPT可以根據用戶的輸入產生相應回覆,再透過大量現成文本的學習後,以自然語言理解和生成模擬出人類的對話方式。

▲▼ ChatGPT。(圖/翻攝自微博)

▲ChatGPT在多個領域的考試中,正確率達70%,下同。(圖/翻攝自微博)

不過,儘管ChatGPT號稱它可以和人類對話,但OpenAI也警告,它給出的答案有時候可能「有問題」,甚至可能表現出「帶偏見」的行為,因此OpenAI希望能透過用戶反饋,幫助ChatGPT改進該系統。另外,雖然ChatGPT無法精確進行簡單運算,不過Google工程師古德曼(Kenneth Goodman)卻表示,ChatGPT已經做好成為律師的準備,因為它在律師執業考試中的正確率高達70%,而且在美國醫師執照考試(USMLE)、紐約州今年的化學註冊考試等,準確率也同樣達到70%,表現優秀。

▲▼ ChatGPT。(圖/翻攝自微博)

分享給朋友:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

相關新聞

讀者迴響

熱門新聞

最夯影音

更多

熱門快報

回到最上面