在世人興奮迎接人工智慧(AI)時代到來之際,Google執行長皮采(Sundar Pichai)日前澆了冷水,指至少在二○二五年,生成式人工智慧可能不會改變你的生活,AI下一階段進展將會變得更加困難,而「唾手可得的果實」已經消失了。是的,AI還不成熟,但世人已經將其濫用,造成諸多不良效應。
兩年前,當OpenAI推出ChatGPT時,生成式AI迅速激發了全球用戶的想像。隨著行業競爭格局在某種程度上確立,包括Google在內的多家大型科技公司都已建立競爭模式,但另一方面,技術突破需要時間才能讓人工智慧產業再次進入超高速發展。皮采認為進展將會變得更加困難,他做了一個比喻:山變得更陡了。我們欲進入下一階段,需要更深層的突破。微軟公司的執行長納德拉也贊同意皮采的觀點。
智能產業發展已蔚為全球運動,發展雖迅速,但仍處於初始階段,而世人的應用,則已到氾濫地步。最近一次美國總統大選是AI爆發式發展後首次深度介入的重大政治事件。生成式AI等技術不僅改變了訊息生產和傳播的方式,也在一定程度上重塑選民的認知模式,影響了公共輿論的形成過程與樣式,甚至在更深層次上衝擊民主的核心理念。
最受詬病的是,這次美國大選期間,生成式人工智慧技術被用之於提高虛假訊息的生產技術與真實感,深度學習模型被用來生成圖像、音頻和視頻,非常逼真地偽造候選人的發言或行為,形成進一步的「深度偽造」。
這種技術如假包換的虛假視頻,可以製造出真實感極強的「證據」,使得虛假訊息的欺矇力更強,直可誤導選民。AI生成的候選人演講或談話的影音短片大肆傳播,顯示AI工具的普及已使生成虛假內容的門檻大為降低,虛假訊息已可規模化生產與分送輕而易舉,生產和傳播都已高度精準化。
虛假訊息的生產者透過分析用戶的瀏覽行為、興趣偏好、社交關係等數據,針對特定選民量身製作訊息並加推送,內容符合各種精細群體認同,可激發預期中的特定反應,也就是具備「個性化」效果,使得虛假訊息的生產與傳播具有高度目的性與針對性。
這次美國大選針對特定族群或社區的虛假訊息跳躍式成長,特別是針對拉丁裔、非裔及其他少數群體的視頻,透過操控情感議題和身分認同遂行情緒傳播效果,其中不乏意圖激化族群之間矛盾的內容。經由「事實」幻象的操弄,生成式AI在情感個性化方面發揮極大作用,使得虛假訊息的生產成為引導用戶並增強其情緒共 鳴的定製化過程。
人工智慧被如此濫用與糟蹋,更讓世人警覺「AI發展如果不加煞車皮,一定會翻車」。如何強化數位治理與防詐,成為重大而緊迫的課題。而如何減緩社會轉型陣痛、調和數據開放與隱私之間的衝突,也是緊要課題。
如何引導人工智慧成熟化要有政策為之引導,並將其納入法律規範,讓「法」與「政策」有效搭配,才能有序而快捷地加速朝AI時代前進。面對人工智慧迎面撲來的衝擊,應知目前尚未成熟的不只是技術,更在於治理與防弊。
所謂「得AI者、得天下」,政府必須建制完整的管理規範,方能在AI競爭上逐鹿天下。