「ChatGPT」中的「GPT」全寫是「Generative Pre-trained Transformer」,中文譯作「生成型預訓練變換模型」,開發公司是在美國三藩市的其技術是人工智能公司「OpenAI」,其原理是使用「深度學習」,生成人類可以理解的自然語言。
很多人在討論這公司時,只著重「GPT」,卻忽略了在前面「Chat」字,這正是關鍵所在。
甚麼是「Chat」呢?稍為學過英文的人都知道,它是「聊天」的意思,而誰都知道,「Chat GPT」就是一台「聊天機械人」。
顧名思義,「聊天機械人」的「工作」,就是同你「聊天」,因此,在開發它之前、在它同你「聊天」之前,它先去大量學習,天文地理、科學藝術、古今中外歷史,無所不讀、無所不懂。
更重要的是,為了免致你覺得同它對話沉悶,它還可以自動生成不同的答案,於是,同一問題問上一百次,它可以有一百個不同的答案。更偉大的是,它還曉得創作,小說、詩歌,甚麼都可寫出來。
問題來了,漸漸地,有人使用它,發現它的內容並不準確,非但常有可笑的錯誤,而且也會前言不對後語。
其實這是很容易理解的,皆因它的「閱讀量」實在太大,而且誰都知道,在網上,有大量的假資訊,如果良莠不齊地全部讀完,而沒有有效的篩選過程,讀得太多垃圾資訊,garbage in、garbage out,所回答的,自然也是垃圾。
至於同一問題,不同答案,也很無謂。如果是創作、寫文章,或者是寫求職信,這當然是有需要,但是如果問「李嘉誠的兒子是誰」這些明顯的問題,強求不同的答案,根本無此需要,而且浪費算力。
問題在於,大部分的問題,其實都只須千篇一律的答案,用不著搞出太多的花款。然而,「ChatGPT」的本質只是一個「聊天機械人」,「聊天」嘛,如果給你千篇一律的答案,豈不是太悶,你也沒興趣同它聊天了。
所以我認為,在未來人工智能的世界,聊天機械人只是末節,真正的藍海另有其他。明天續談。
沒有留言:
發佈留言