最近,各行各業都在談論ChatGPT,對於某些行業的人來說,這可能是好事。然而,對於一些人來說,這卻是被迫追趕ChatGPT的潮流,好像如果沒有涉獵過就是落後於人。作者早先試用了ChatGPT,但發現當時的版本並沒有解決專業實際問題的程度,因此也就沒有特別去關注這個話題。但據作者所知,除了科技大學允許教職員自行決定是否容許學生使用AI工具之外,本港大部分的專上學府都已經內部禁用了ChatGPT。這表明,大部分院校都暫時對AI在學術研究交流方面扮演的角色持保留態度。
後來終於有空坐下來試用ChatGPT,不過將之前測試的專業問題改為通識問題,看看ChatGPT是真的神通廣大,還是名過其實。在測試過程中,筆者發現了幾個有趣的地方:
- 現時透過AI產生內容,似乎可以稍為修飾文章的語氣或令文筆看起來流暢一些。不過文章內容是否對題和fact check的部分,暫時仍需要人手把關。
- 寫作其實需要思路,AI再厲害,也需要給予思路和指引才能寫出高質量的作品。因此它可以完成寫作的基本部分,但編輯的工作仍然需要人手完成。
- AI寫作不會避免使用禁用詞彙,也不會避免道德風險。例如你問它如何殲滅人類以減少破壞地球環境,它有機會在不迴避道德問題的情況下,提出人類滅絕計劃。不過,有指AI漸漸已經學識人類溝通的一些潛規則 (例如這兩天廣傳的”my wife is always right” AI對答)。因此和固有的觀念不同,現今的AI似乎適應得很快,變得越來越有彈性。
- 在風險管理角度而言,假若某些作者只為方便,把 AI寫出來的東西直接刊登,就很可能會因為AI生成了一句不夠嚴謹的信息,而令該作者成為別人的攻擊目標。尤其是如果刊登作品的人在市場上已經建立一定的品牌價值,別人「抽水」或「打敗」後可以判教立威,那麼就會引誘別人構成一些不良的意圖,甚至引發大肆渲染,或者令「被挑戰」的人向作者提出索償和控告的情況。而當這些事發生時,網上世界通常會往極端化走(radicalization) ,不會為受害者輕易流傳撥亂反正的更正資訊。
- 筆者做網上行銷的朋友也試過用AI寫程式。簡單的程式還是可以寫出來,但在調試之後才能部署使用。對於複雜的程式,暫時還不能使用AI。這是因為大型系統需要考驗的是項目管理和系統分析設計的能力,而現時的AI並不到位,所以想要使用AI幫助公司建立ERP系統就不可行了。而簡單的程式只要在GitHub上整理得好,所有的模塊都可以透過函數呼叫應用,因此這塊暫時也吸引一些KOL湊個熱鬧,研究一下再發表見解。
下一回筆者會繼續討論AI的優劣,以及如何聰明地運用AI幫自己達成特定工作目標。
表妹
延伸閱讀:
如對本文章有任何問題或意見,歡迎按右上角 Whatsapp 按鈕聯絡我們互相交流。