功能更強大的GPT-4現身 完勝ChatGPT但仍然有缺點

OpenAI周二推出最新版AI語音模型GPT-4, 除文字對話外還能解讀圖片。(路透)

人工智慧研究實驗室OpenAI推出最新版AI語言模型GPT-4,有更好的創造力和推理能力,能解讀圖片內容,但仍然有些毛病,還無法與人類智慧相匹敵。

聊天機器人ChatGPT近幾個月掀起熱潮,但它依賴的是老一代AI語言模型GPT-3.5技術,相較下,GPT-4是先進系統,不僅能創建文字,還能依照簡單的書面命令來解讀圖象。例如,當看到照片裡的蹺蹺板,一端上方掛有拳擊手套,另一端擺上一顆球,GPT-4被問到手套掉下來會發生什麼事的話,會回答拳擊手套將擊中蹺蹺板,而球會飛出去。其實大家已預覽過GPT-4——微軟周二宣布,上月發布的Bing AI聊天機器人用的就是GPT-4。

開發人員周二在部落格貼文承諾,這項技術可以進一步讓工作和生活發生革命性變化。但這也加劇人們的憂慮,要如何與接受工作外包的機器競爭,以及能否信任網路上看到的內容。

OpenAI表示,GPT-4的橫跨文字和圖象的「多模式」訓練,能更完整模擬色彩和圖象世界,在高階推理能力上超越ChatGPT,回覆提問更正確,執行交付任務更精準。你可以上傳一張圖片,由GPT4添加字幕、描述其中的人與物,以及場景。

為了免遭濫用,OpenA暫時延後發布GPT-4的圖象描述功能。例如GPT-4能辨識有一大群人的圖片,提供佨括身分在內的已知資訊,這可以用來進行大規模監視。OpenAI的訂閱服務ChatGPT Plus目前僅對付費用戶開放GPT-4的文字功能。

GPT-4明顯是考試好手,標準化測驗得分可居前10%,遠優於GPT-3.5。它的專業性比較高,講的笑話也比較有趣了,但仍會犯下先前版本的錯誤,例如胡說八道、有偏見,以及給予糟糕的建議。聊天機器人都有這些毛病,因為它們無法理解什麼是真、什麼是假,可能生成全然錯誤的內容。另外,雖然對於已經發生的事像是能理解得很好,但較不擅長假設未來,會借鑒別人說過的話,而完整推理到生出新的預測。