去年十一月,雲林一對陳姓夫婦在阿布達比國際機場轉機時,陳先生突然遭當地武警帶走、拘留,在外交部及民意代表的協助下,歷經五十五天後,陳先生才終於在日前順利返台。據當地檢警確認,原來是機場的人工智慧(AI)系統錯將陳先生標注為通緝犯所致。
隨著愈來愈多機場、港口以及各式各樣交通工具採行AI系統,類似上述陳先生的旅遊風險也會增加。可見AI不但已成為人類重要的幫手,卻也帶來了各種隱憂;其中,所謂的「大腦外包」正是專家最擔心的課題。直接使用生成式AI現成的內容,已成了解決問題的捷徑,這讓人類更離不開AI,最終連「思考」與「創意」都外包給了AI,這就是大腦外包。
有人認為,這種情況就跟GPS導航系統發明後,缺乏方向感和基本道路辨識能力的人快速增加是類似性質的問題;而AI依賴比GPS帶來的問題更嚴重,因為思考與創意是人類大腦最珍貴的資產,「思考能力」更是人類自認為是萬物之靈的關鍵。大腦也跟身體其他器官一樣是用進廢退,具有可塑性的大腦神經,長期閒置或低度使用,神經連結就會變弱、變差,久了,大腦就會愈來愈不好用、不中用。而AI的便利性就提供了一個讓人類不用大腦的理由,畢竟AI可以提供答案,而且速度極快。對人類來說,AI的便利和速度成為極大的誘惑,比搜尋引擎更吸引人。
人們相信,AI這麼聰明、資訊這麼豐富,自然會給出正確的、最好的答案,這是一種「資訊幻覺」,因為生成式AI並不總是提供正確的答案,也會給人虛假、錯誤甚至是AI自己亂掰的情報。然而,AI敘述時總是充滿了高度自信,再加上常常邏輯自洽,讓使用的人不知不覺「買單」。有些專家已發現生成式AI常常「一本正經胡說八道」,給人不正確的訊息;AI也可以很快偵測到使用者對某些事情的特定立場,因此在給答案時就會往這樣的觀點傾斜,由而就讓當事人更堅定固有的想法,如果當事人原本的立場或觀點有問題,AI很可能就加深了問題,而不像在與真人討論時,會有糾錯或是反覆辯證的過程;如此經由AI幫忙所產生的決策,品質令人擔心。
因為AI好用,有些機構、學校開始用AI代替人做心理輔導的工作,或至少取代部分心輔的功能,例如,台灣已有大學要求學生在申請諮詢與諮商前,先找AI談談。表面看來,這是很節省人力的做法,實則暗藏危險。試想,把一位自認必須求助心理諮商或輔導的學生,丟給AI,會出現什麼樣的情境?孤獨地與AI對話,真的能夠解決心中的困惑、失落甚至痛苦嗎?AI真的能夠接住一顆受傷的心嗎?人們或許可以找AI聊聊天,但這個過程並不等於心理治療,因為真正的諮商,絕非只是提供情感支持,而往往需要進一步了解當事人困境的真正成因,甚至有時要去挑戰當事人,讓當事人有所反思,但生成式AI採行的策略常常是順著當事人的情緒或價值觀往下走,這對當事人面對自身問題並試圖理出頭緒、進而走出困境,恐怕幫助有限。在諮商的過程中,AI或許可以搭配心理輔導老師,但是要學生在還沒有跟諮商師進行輔導前、還沒有得到任何專業意見前,就先去找AI聊聊,這種做法是否適當,應慎思。
AI不是超級人類,它的使用必須有邊界:大腦不可外包,有人際互動,人生才有溫度。