AI惹爭議 Google淡化LaMDA自我意識問題 |2022.06.16 語音朗讀 1128觀看次 字級 大 中 小 Google一名工程師認AI系統LaMDA似乎「有知覺」,讓AI爭議又引起討論,Google淡化AI自我意識問題。示意圖/unsplash 【本報綜合外電報導】Google內部針對AI(人工智慧)技術是否具有人類意識的爭論曝光,讓AI伴隨的野心與風險浮上檯面。Google在聲明中迅速且堅定地淡化LaMDA是不是有自我意識的問題,「這些系統模仿了數百萬個句子中的交流類型,並且可以重複任何奇異的話題」。Google這家矽谷巨頭上周將一名工程師停職,因為他認為公司的AI系統LaMDA似乎「有知覺」,Google已正式駁斥這種說法。圖/unsplash多位專家告訴法新社,他們也對LaMDA有意識的說法高度懷疑,但人類的本質和野心很容易模糊問題。美國華盛頓大學(University of Washington)語言學教授班德(Emily M. Bender)說:「問題在於…當我們遇到屬於我們語言的字串時,就會加以理解。」我們在做的是想像一個不存在的頭腦,LaMDA是一個使用先進模型、功能強大的系統,能用文字聊天來模擬人類溝通。根據Google的解釋,該系統建立在一個模型上,模型觀察單字之間的關係,然後預測接下來會出現在句子或段落中的單字。北卡羅來納大學教堂山分校(University of North Carolina at Chapel Hill)電腦科學助理教授斯里瓦斯塔瓦(Shashank Srivastava)說:「它在某種程度上仍然只是模式匹配。」圖/unsplash「當然,你可以找到一些真正有意義的對話,可以生成一些非常有創意的文字,但在許多情況下它會迅速轉移。」儘管如此,確定它們有沒有意識還是棘手問題,這通常得使用圖靈測試(Turing test)這樣的基準測試。多倫多大學(University of Toronto)哲學教授金威爾(Mark Kingwell)說:「對於2022年我們這裡的任何AI來說,這實際上是一個相當容易通過的測試。」「更嚴格的測試是上下文測試,當前系統似乎會被上下文測試中的常識知識或背景想法等難倒,那是演算法很難處理的東西。」AI在科技界內外仍然是微妙議題,可能讓人驚訝,卻也讓人有些不舒服。圖/unsplash 前一篇文章 新聞千里眼 下一篇文章 幼兒施打新冠疫苗 莫德納規畫3到6月嬰兒試驗 熱門新聞 01【分數之外】看見另一種英文2026.04.0802清明豪雨 合歡溪出現新堰塞湖2026.04.0903杉林溪園區 紫藤花盛開2026.04.0804計程車掛牌費喊到35萬元 交部出手2026.04.0805火金姑故鄉 賞螢好去處2026.04.0906哥國動盪城 變身世界圖書之都2026.04.0807【練瑜伽品生活】英雄式二 英雄不能只看正面2026.04.0808吃素也能大補「鐵」 開心果芝麻含量豐2026.04.0809市井日常入畫 陳臻描繪庶民百態2026.04.0910治腰痛 步行、慢跑讓椎間盤好好呼吸2026.04.09 訂閱電子報 台北市 天氣預報 台灣一週天氣預報 相關報導 五泰輕軌路線近溼地 環團憂生態熱氣球嘉年華 7月台東登場黑鳶獲救 癒後野放萌寵商機退燒 動物農場吹熄燈號大鵬灣帆船生活節 開幕人口持續減少 今年新生兒恐跌破9萬