Microsoft香港科技長 解構ChatGPT大熱之謎
ChatGPT是聊天機械人(Chatbot),現時我們向銀行或商戶查詢,也會用到這類AI科技,出現也有一段時間,ChatGPT到底有何獨特之處?
令人類用得其所
Microsoft香港區域科技長許遵發說:「現時提到的ChatGPT,是建基於GPT-3.5這個模型,這是『大語言模型』(large language model),這個模型超大,同一時間可以運算超過1,750億個函數,需要運用超級電腦運算,基本上像人類一樣聰明。」
一般的聊天機械人,只能解答簡單的問題,例如這是甚麼物品,或者做一些翻譯,大家不難發現經常是「答非所問」,但ChatGPT幾乎懂得回答任何問題。
假若準備到大嶼山玩三天,可以叫ChatGPT協助計劃旅程,推薦好玩的地方,甚至可以提供更多細節,例如共有20人參與,讓它給你規劃。
假設記者做完訪問,寫了3,000字的稿,但太長,可以叫ChatGPT代為總結;若需要到學校進行演講,只需提供內容重點及對象,便能撰寫一篇演講稿。
一般聊天機械人只能回答一個問題,然而ChatGPT能夠理解上文下理,回答用家的多次提問。
「它的突破點就可以在同一時間,比較極多數據,約60%數據在互聯網上搜集回來,當中3%來自維基,並且到處翻查文獻、檔案,主要將文字相關地串連,進行有意義的分析、學習和分享。ChatGPT是生成式人工智能(generative AI)技術,透過下達命令而創造散文或其他內容,真正能夠將AI普及化。
ChatGPT爆紅,令其他科技巨擘爭相出手,包括Google Bard、Quora Poe及百度的ERNIE bot等,場面熱鬧。
「大語言模型」並不是新發明,甚至可以追溯至幾十年前,技術並不複雜,可以在文獻或論文上找到,重點在於誰有能力,可以快速地培訓,同時完善地推出市場。
ChatGPT的母公司OpenAI成立於2015年,是一間非牟利組織,目標是促進及發展人類友好的AI,令人類用得其所。
「Microsoft也有類似的概念,就是我們常說的Responsible AI(負責任的人工智能),故在2019年加強合作,我們投放了10億美元,提供硬件、軟件及服務等,協助對方培訓AI。」
永遠不會完美
最近,Microsoft宣布,投資超過20億美元到 OpenAI,將其技術帶入微軟的雲端服務,不久前公布Bing、Edge、Teams、Viva Sales等都加入ChatGPT的功能,甚至是優化的功能,有興趣使用者,可在網站上登記輪候。
現時ChatGPT只開放給部分地區使用,用戶登記後,暫時可以免費使用。
「OpenAI是一個科研實驗室,他們推出的服務未必適合企業使用(enterprise ready);Microsoft是一間科技公司,所有產品都要符合公司制定的信任準則(Trust Code),從而作出正確且合乎道德的選擇,包括零信任架構(Zero Trust)、用戶在登入時須驗証身份才可存取數據、隱私政策則保障收集資料時尊重用戶資料使用等。」
Microsoft本身亦投放極多資源研發AI,在全球八個研發中心,合共聘用逾1,000個AI研究專才,每年發佈大量相關文獻,並且擁有超過22,000個關於AI的專利。
「其實AI已經取代部分人類的工作,根本不用等將來,例如無人駕駛,雖然目前未能100%取代人類,但很快會出現愈來愈多的無人駕駛車,那時就沒有必要聘請司機了。」
科技正在悄悄取代人類,40年前,電腦並未普及,所有事情都要人類動手做,後來愈來愈多工作交給電腦處理。
以翻譯為例,現時AI可以代替人類進行,但這並不代表從事翻譯的人沒有工作,而是在翻譯機器的協助下,令工作效率提升。
「進入後疫情時代,經濟才開始復甦,很多公司都收緊資源,善用科技可以讓企業do more with less,提高效率及生產力,讓機構更有優勢。」
AI可能比很多人聰明,重點是要善用這項技術,令人類的工作發揮得更好更快,從而贏過你的競爭對手。
近期,Google推出的Bard因為答錯問題,拖累公司股價大跌,其實這個情況很正常,ChatGPT也會答錯問題,若你告訴它答錯了,它會把你的答案當作是真的,因為技術仍在發展,永遠不會完美。
聰明10萬倍
在發展的階段,ChatGPT答得好壞與否,需要人手做標記,所以衍生出AI標記員這工種,當然還有AI培訓員,教導它學習各種各樣的知識;日後可能還會衍生其他的新工種。
「AI一定可以取代人類,但人類不會完全沒有工作,不過需要轉型,每個人都要自我增值,不斷學習,面對數碼化浪潮,不要害怕,要學懂怎樣善用。」
GPT-3.5經已這麼厲害,相信GPT-4.0更加犀利,但沒有人知道何時發生,可能短時間內就出現,而且比現在聰明10,000倍、10萬倍,一點也不奇怪。
「假如你有一把槍,你可以拿去殺人,也可用來自衛;AI同樣是兩面刃,所以必須確保人們用得其所。」
如果客戶使用ChatGPT做項目,Microsoft會有嚴謹的審批程序,詳細了解內容,避免人們用來做違法的事情。
最近,Microsoft便推出了Responsible AI Dashboard,讓客戶了解正在進行的AI項目,是否符合各項守則。
Microsoft一直都在講Responsible AI的六大原則,包括公平性(Fairness)、可靠性與安全性(Reliability and safety)、隱私權與安全性(Privacy and security)、包容性(Inclusiveness)、透明度(Transparency)及權責(Accountability)。
「我們因應這六個原則制定了各種框架及指引,亦設有不同的委員會,審視AI項目,決定是做還是不做,因而令某些機構制定類似框架,有些國家甚至以此為基礎制定相關法例。」
AI解答AI問題
筆者嘗試將兩條擬定的訪問問題,向ChatGPT發問,獲得秒速回覆,讀者覺得如何?
ChatGPT能否完全取代文字工作者,例如記者、編劇等?
ChatGPT作為一種自然語言處理模型,可以通過學習大規模的文本數據,並基於這些數據生成高質量的自然語言文本,具有一定的文本生成能力。但是,它並不能完全取代文字工作者,例如記者、編劇等。
首先,ChatGPT生成的文本缺乏創造性和獨創性,無法完全替代人類的想像力和創新性。其次,ChatGPT生成的文本往往缺乏主觀性和情感色彩,難以真正表達人類的情感和意圖。再次,ChatGPT生成的文本可能存在誤導、不準確等問題,需要人類進行審查和修改。
因此,ChatGPT更適合在輔助文字工作者的工作中使用,如輔助新聞編輯、輔助劇本創作等,提高生產效率和質量,而非取代文字工作者。在文字工作者需要進行較為複雜和創造性的工作時,仍需要依靠人類的判斷和創造力。
AI日後發展如何?能夠統治人類嗎?
目前的人工智能技術可以說還遠遠沒有達到可以統治人類的程度,它們只是能夠執行程序化和規則化的任務,並且需要在某種程度上受到人類的控制和指導。人工智能的發展是一個漫長而復雜的過程,需要不斷地研究和發展。
目前,人工智能技術已經取得了一些非常顯著的成果,例如計算機視覺、語音識別和自然語言處理等領域,但是人工智能還沒有真正具備像人類一樣的思考、決策和情感能力。
在未來,我們可以預見到人工智能技術將繼續發展和改進,這可能會帶來更多的變化和機會,但也可能會帶來一些挑戰和風險。為了確保人工智能技術的安全和可控性,我們需要加強相關的研究和監管,並確保AI的發展和應用符合倫理和社會價值觀。