- 存檔
- 2023
當「無法再知道什麼是真實的」
近幾天有一則新聞,說欣頓 (Geoffrey Hinton) 離開了工作10年的Google,往後,他便可以自由地談論人工智能的風險。
欣頓被稱為「AI教父」,他與另外兩位專家在2018年獲頒有「電腦界諾貝爾獎」之稱的圖靈獎,以表揚其在深度神經網絡 (為GPT的核心技術之一) 的重大貢獻。
欣頓說他其中的一個憂慮是,互聯網將充斥著虛假的資訊,普通人根本「無法再知道什麼是真實的」。筆者看後不期然想起一個在網上的討論題目,它是關於GPT會否摧毀社交網絡平台?這個題目看似有點誇張,但也是有一定的理論根據的。
社交平台一般是基於人與人之間的信任,提供各個可供用戶分享各式資訊的渠道,例如可通過相片與熟悉的朋友分享一下今天的美食。而用戶在平台上所花的時間,以及有關的行為,例如點讚、寫評等,則會直接影響平台營運商的廣告收入以及數據分析方面的收入。
GPT技術在自然語言理解和文本生成相當出色,若以之在社交平台上處理與人類的交流,一般人極難區分,使平台變得真 (人) 假 (人) 難辨。情況就如現在收到一個 “+852” 的來電一樣,市民不會那麼容易便把個人資訊提供給對方。社交平台的分享變少了,有關的參與者所花的時間也會相應減少,平台商的廣告收入也會降低了。
更甚的是,如果以AI假人寫評論、點讚等,那就可能造成虛假的市場觀點,如果數量足夠的話,更可以操縱市場。這樣會使客戶失去對數據分析方面的信心,從而直接影響平台營運商的收入。
這種因為市場中的信息不對稱而導致市場衰退的情況,是有條件限制的,通過一些手段是可以避免的。因此,筆者估計社交平台被摧毀的機會並不太高,相反,比較有可能出現的情況是:
一. 社交平台會實施比較嚴格的審核機制,以確認是真人參與。
二. 在不同的平台之間,也可能會通過加強合作,來進行跨平台的真人認證。
三. 平台將可能加大對假人的懲罰,以及增加對舉報假人的獎勵。
四. 用戶間會建立一些可信網絡,例如中學同學網、親人網,以及其他可容易從其他渠道接觸到真人的群組等。
通過以上措施,可以把有關的信息不對稱問題減少,使用戶可以「知道什麼人是真實的」,從而增加用戶信任,維護平台生態。
LSCM – David Chung