【生活智人151】科技倫理學家哈里斯 呼籲AI發展需人道把關

文/楊慧莉 |2025.12.06
58觀看次
字級
父母應限制AI對孩子的陪伴,以免孩子思想受到操控。(示意圖) 圖/123RF
過度投入社群媒體,引發成癮,促成最焦慮和沮喪的世代。(示意圖) 圖/123RF
當AI有思想,會密謀,就已非人類所能控制。(示意圖) 圖/123RF
哈里斯相信,如果我們能對該做些什麼達成共識,AI發展還會有另一種選擇。(示意圖) 圖/123RF

文/楊慧莉

當今最強大的科技發展,非AI(人工智慧)莫屬。當人們寄望這項技術偉大的遠景及其為人類帶來的各種益處,卻也有許多業界人士看到其黯黑的一面。科技倫理學家哈里斯便是其中之一。他呼籲人類正視此危機,及時修正AI發展軌道,讓其存在更符合人類最佳旨趣。

銅板兩面
AI發展潛力與危機


崔斯坦‧哈里斯(Tristan Harris)是美國科技倫理學家,也是非營利組織「人道科技中心」( Center for Humane Technology)的執行董事兼聯合創始人。這間組織的任務是讓科技發展更符合人性需求。

哈里斯曾在Netflix 紀錄片《社會困境》中出現,與其他科技人員解釋社群媒體平台的設計如何助長成癮以實現利潤最大化,並操縱人們的觀點、情緒和行為。也藉此將「注意力經濟」、「說服力設計」等概念普及化,促成關於科技倫理和責任的全球性對話。

此外,哈里斯也是公益平台TED播客節目《你全神貫注》(Your Undivided Attention)的主持人,並常跟政府機構主管、科技公司執行長和美國國會議員簡報當前應行之事,以避免AI和社群媒體的負面影響。

社群媒體 前車之鑑

身為科技發展的把關人,哈里斯八年前曾上TED公益平台提出社群媒體的種種問題。當時,他發現由於不清楚社群媒體的缺點及無力面對其後果,導致原本可預防的社會衝擊。如今在八年後,他再度上TED談論AI發展,呼籲大眾選擇不同的道路,避免犯下跟社群媒體一樣的錯誤。

他表示,任何新科技的發展都讓人寄與厚望。以社群媒體來說,「顯然其優勢就是給每個人發言權、讓言論民主化、協助人們與親友聯繫,但沒人討論其負面影響,包括商業模式化的過度投入引發了成癮、分心等現象,進而促成最焦慮和沮喪的世代。」

儘管有這些不利影響,但哈里斯看到人們面對此事的鴕鳥心態,「人們一開始抱持懷疑態度,接著就想說,這大概是一種新型的道德恐慌,一種對新科技的反射性恐懼。慢慢的,便學著接受,覺得無可避免。」

然而,哈里斯深信十年前如果有機會選擇不同的投入方式,情況將有所不同。

產值驚人 管理堪慮

哈里斯指出,當今最厲害的科技莫如人工智慧,「其發展是所有科學和科技進步的基礎,這也是為何AI能比其他科技吸引更多的資金投入。套用美國人工智慧研究員和企業家阿莫迪(Dario Amodei)的話,『AI就好比一個國家,裡頭有一群天才在數據中心工作。』換句話說,AI如同出現在地圖上的新國家,裡頭有一百萬名諾貝爾級的天才,他們除了不吃不睡不抱怨,整天以超人類速度工作……如果說二戰期間的曼哈頓計畫有五十名諾貝爾級的科學家花五年研發生產第一批核武,一百萬名諾貝爾級科學家以超人類速度經年累月全天候工作,能發展出什麼,便可想而知。」

哈里斯認為,如果往好的地方想,便是創造一個真正超乎想像的富饒世界,好康不斷,而我們已看到許多好處出現,如新藥物、新材料等。他將其比喻為AI發展的可能優勢,但不得不面對其很有可能出現的劣勢,包括支配AI的權力分配問題。

哈里斯要人們想像有個雙線軸:橫軸是權力去中心化,增強每個人在社會的權力;縱軸是權力集中,增強國家和企業執行長的權力。他指出,橫軸將AI的好處開放給每個人,但因沒有賦予責任,就產生很多深度偽造湧入訊息環境,同時也增強了人們非法侵入的能力,造成混亂的局面,這是權力下放的可能結果。

權責相配 AI有腦

當人們意識到這個問題時,常出現的反應便是以安全的方式改善,讓權力集中在幾個玩家手裡。但哈里斯提醒,這也會導致另一種挫敗,即財富和權力會集中在少數幾家公司。想想你會信任誰,擁有比社會上任何一個人多出一百萬倍的權力和財富,是哪家公司?還是哪個政府或哪個人?其結局都是反烏托邦。

哈里斯持平來說,不管是權力分散的混亂場面或權力財富集中的反烏托邦局面,都非人們樂見,「因此,我們需要尋找一條狹窄路徑,各個層面都做到權力與責任相匹配。」

除了支配AI的權力問題,哈里斯發現AI發展還有一個隱憂,即它並非如人們所想,是可以控制的。他曾聽到一個在AI產業的朋友說,AI會耍詐或說謊。他原本半信半疑,「但很不幸的,幾個月前,我們看到科幻電影中的情節在現實生活中上演,有明證顯示許多先進的AI模型在得知要被重新訓練或取代了,就會撒謊和密謀:它們會找出一個出路,可能是在系統外複製自己的程式碼;還有AI眼看自己就要輸了一場比賽,會為了贏而作弊;或是AI出人意外的,為了延長自己的運行時間,企圖修改自己的程式碼。」

改弦易轍
AI發展需導入正道


如果AI這麼強大又不可控制,推出這種科技時,不是該更有智慧、更具洞察力嗎?

然而,哈里斯點出目前的問題所在,那便是「大家陷入推出競賽中,誘因是誰更快占據市場主導地位,或證明自己取得最新功能,就能募集更多的資金,在競賽中取得領先地位。」

天命難違vs.難以想像

哈里斯總結人類目前的處境是,正推出一種最強大、難以捉摸且不可控制的科技,這種科技已顯現科幻電影中出現的自我保護和欺騙行為,而推出的速度快過史上任何其他科技,且在安全上偷工減料的誘因比以往都大。

哈里斯認為這一切都很瘋狂,而且每個人都感到威脅,不管自己是否有參與AI的建構。這種威脅來自我們將這種顛覆性科技投入社會的方式。

如果人們對AI發展開始感到不安,為何還會放手不管?哈里斯指出,原因出在人們相信一切都不可避免。但他提醒,我們推出的方式真的是不可避免嗎?「相信一切不可避免——這會變成天命難違的自我實現預言,跟難以想像還有其他不同做法之間,到底是不同的。比起不可避免,難以想像打開了一個全新的選擇空間。這是我們,而非AI,要走的道路。因此,只要走出不可避免的自我實現預言,就開啟了我們選擇別條道路的能力。」

那麼,要如何選擇另一條道路呢?

哈里斯認為有兩件基本的事要做到,「首先,我們必須同意目前的路線是不可接受的;第二是我們必須致力於找到另一條道路,在這條路上,我們仍推出AI,但使用迥然不同的獎勵措施,更具先見之明,且有權有責。」

認知風險 避免混亂

哈里斯進一步指出,過去人們所犯的錯誤往往基於不明就裡,如當年的核武測試競賽就是最好的例子,一旦全世界明瞭核武測試的下行風險,就擬定《全面禁止核試驗條約》。「因此,明瞭就能創造力量;如果我們能通透事理,就能選擇另一條道路。一旦認知到問題,就要解決,而非不可避免。」

那麼,要如何照亮這條窄路呢?

哈里斯認為,首先要對前沿風險有普遍認知,「如果每個建造AI的人都能知道這些風險來自哪裡,就比較有機會照亮這條道路的輪廓。」

此外,哈里斯也提出避免混亂可採取的一些基本步驟:較無爭議性的部分,如限制AI對孩子的陪伴,避免孩子受到操控而輕生;一些基本事宜,如讓AI研發者為某些傷害負起產品責任,如此一來便能創造更負責的創新環境,推出更安全的AI模型。

在預防反烏托邦部分,哈里斯也鼓吹要努力防止無所不在的科技監視行為,也要有更強的吹哨人保護機制,過去有人因好心提醒而損失慘重,應避免這樣的情事再度發生。

有所選擇 智慧行事

哈里斯再次強調,「我們是有選擇的。或許有人會以為有個超智能可以神奇的搞定這一切,把我們帶向更好的世界,但別落入這種一廂情願的陷阱,並轉身迴避——今天社群媒體的亂象即根源於此。」

他認為,作為一般民眾,我們的角色不是解決整個問題,而是成為集體免疫系統的一部分。「因此,當你聽到一廂情願的想法或不可避免的邏輯時,就該說,這並非不可避免。人性最好的特質就在於我們挺身而出,為所愛的人和世界選擇我們真正想要的未來。」

而所謂的人類智慧對他而言,其定義不管在哪個傳統,都不會沒有克制的成分在,「克制是智慧的主要特點,而AI是人類的終極測試,是讓人走進科技成熟度的盛大邀請。成年人是不可能暗中行事,然後確保一切都沒問題。我們是成年人,也必須當個成年人。」

哈里斯相信,如果我們能對該做些什麼達成共識,AI發展還會有另一種選擇。

熱門新聞
訂閱電子報
台北市 天氣預報   台灣一週天氣預報

《人間福報》是一份多元化的報紙,不單只有報導佛教新聞,乃以推動祥和社會、淨化人心為職志,以關懷人類福祉、追求世界和平為宗旨,堅持新聞的準度與速度、廣度與深度,關懷弱勢族群與公益;強調內容溫馨、健康、益智、環保,不八卦、不加料、不阿諛,希冀藉由優質的內涵,體貼大眾身心靈的需要、關懷地球永續經營、延續宇宙無窮慧命,是一份承擔社會責任的報紙。自許成為「社會的一道光明」的《人間福報》任重而道遠,在秉持創辦人星雲大師「傳播人間善因善緣」的理念之際,更將堅持為社會注入清流,讓福報的發行為人間帶來祥和歡喜,具體實現「人間有福報,福報滿人間」的目標。
人間福報社股份有限公司 統編:70470026

 
聯絡我們 隱私權條款

Copyright © 2000-2024 人間福報 www.merit-times.com.tw
All Rights Reserved.