圖/123RF
圖/藍筱琦
文/藍筱琦
我在大學法學院人權法課程辦公室工作。最近有個組織INACH(國際反網路仇恨網絡International Network Against Cyber Hate)來演講,它是一個總部設在阿姆斯特丹的國際非政府組織 ,成立於 二○○二年,由多個反歧視機構與公民團體組成。主要目標是:對抗網路仇恨言論,監測並研究網路上的仇恨與歧視內容。
在這個人人離不開網路的時代,我們每天都在滑手機、看短影音、留言互動。但有時候,螢幕上跳出來的內容不再只是玩笑或爭論,而是赤裸裸的仇恨,那麼,我們應該怎麼分辨「言論自由」與「仇恨言論」?歐洲社會又是如何面對這個問題的?
首先,言論自由不是「想說什麼都可以」。在荷蘭,有一位政客 Geert Wilders 就因為他的發言多次成為新聞焦點。幾年前,他在集會上問支持者:「你們想要荷蘭有更多還是更少摩洛哥人?」台下觀眾大聲喊「更少!」,他則回應:「我們會讓它發生。」這句話最後讓他被法院判定為煽動歧視。
雖然每個人都有表達意見的自由,但當言論直接點名某個族群,甚至暗示要排除他們時,就已經超出了「自由辯論」的範圍,進入可能傷害他人的「仇恨言論」。又或是把某個宗教與其信仰者都貼上惡意的標籤,對社會裡該信仰的人是一種深深的汙名化,所以,言論自由不等於可以無限制地攻擊別人。
在許多國家,法律明確規定:煽動仇恨或歧視的言論不再受「自由」的保護。
社會上的仇恨並不是一夜之間爆發的,而是從底層的偏見慢慢累積上去,小動作也可能造成大影響。有人提出「仇恨金字塔」的理論:
★最基礎的層次是玩笑、刻板印象和排斥。
★再往上,是制度上的歧視,例如拒絕雇用某一群人。
★金字塔頂端,就是暴力與迫害。
換句話說,當我們在網路上看到歧視笑話、表情包,覺得「只是好玩」時,其實已經在為仇恨搭建基礎。如果沒有人出聲制止,這些行為可能逐漸把社會推向更嚴重的歧視甚至暴力。
歐洲國家近年來推出幾項重要的法律和準則,目的就是要讓網路世界更安全:
一、假資訊行為準則:一開始是自願性的協議,要求社群平台與搜尋引擎更透明,不能靠假新聞廣告賺錢,並且提供用戶檢舉與查核的工具。雖然效果有限,但已經邁出第一步。
二、數位服務法(DSA):這是正式的法律,要求大型平台必須對「系統性風險」負責,包括仇恨言論和假資訊。他們要接受稽核,並與「可信舉報者」合作。
從今年七月起,假資訊準則的承諾也將納入DSA的法律框架中,具有強制力。
三、人工智慧法(AI Act):隨著生成式AI的興起,假影片、深偽影像和AI假新聞可能被濫用。AI法規定了不同風險等級,禁止最危險的用途(例如操縱人心的隱藏技術),並要求AI生成的內容要有透明標示。
這些規範反映了一個現實:網路社會,光靠自律不夠,需要法律的保障。
在日常生活中,我們也應注意:
一、留意小事。當你聽到有人用玩笑取笑某個族群,不要覺得無關緊要,小小的偏見,累積起來就是仇恨的基礎。
二、言論自由要平衡責任。你有表達的權利,但同時也要尊重別人的存在與尊嚴:言語能鼓動群眾,也能傷害整個群體。
三、成為數位世界的公民。看到假資訊或仇恨內容時,不要轉發;可以善用平台的檢舉功能;同時也要養成查證的習慣。
如果你在群組裡看到帶歧視或仇恨的留言或照片,會怎麼做?附和?沈默?還是試著說「這可能不太合適」?網路世界的確給了我們自由,但自由不是無限的。當言語跨過了批評的界線,針對個人,而不是針對行為,那就可能會對社會或人心帶來傷害。請記住,謹慎使用言辭,不僅是法律的要求,更是我們對彼此的尊重。