由「電腦偵測裸體影像」談偽科學

◎epicure

如何辨識「胸前特徵」
成大工程科學系碩士班研究生胡冠宇的論文「基於膚色之裸體影像偵測之研究」引起網友高度興趣,爭相轉寄下載,成為熱門話題。胡的指導教授王明習於受訪時表示,該實驗室「一直在推動網路色情的防治」,同時還有別的研究生正進行色情文章辨識的研究,「希望結合圖像與文字,徹底防範網路色情氾濫的亂象」。

我的一位老師曾說:「學術研究也不過就是作好兩件事:問問題,然後找答案。而問對問題通常比找對答案難。」偵測色情圖片的研究,問對了問題嗎?

使用電腦辨認圖片中的特定元素,是影像處理常做,也很有應用價值的題目。例如,使用電腦處理測速照片,需要從照片中把車牌抓出來;使用電腦做面孔辨識,得先想法子讓電腦找出一張圖片中哪個區域是人臉。軍事上,電腦可用來判斷衛星圖片中是否有坦克或飛彈。胡的論文嘗試判定圖片中有沒有露點裸女,這還稱得上是一個定義清楚的問題。胡同學選定了這個題目,也得到了足以發表的成果。

但,王教授所宣稱的最後目標:判定一張圖片是不是色情圖片(或者使用胡文的辭彙「辨識一張圖片是不是包含色情因子」)不是一個科學問題。就如同用電腦在照片中找出人臉是科學問題,找出俊男美女照片不是;認出圖片中的坦克與飛彈是科學問題,判定該國是否正發展大規模毀滅武器則不是。裸女、人臉、飛彈坦克的定義清楚。但色情與非色情圖文、俊男美女與一般人的照片並沒有本質上的不同。色情/非色情的分別是權力運作下的結果。問錯了問題、選錯了題目的「科學」研究,並不能讓我們對世界有更多的了解,反倒註定只能成為權力的附庸,加深我們既有的誤解和偏見,鞏固既有的權力結構。

* * *
賣淫在十九世紀成為嚴重的社會問題。許多醫師於是妄想使用科學/醫學方式辨認妓女。倫敦進行過大規模的調查,測量妓女的膚色、體型、陰蒂、陰脣的大小厚度。另有一些專家們將智能不足與賣淫關聯起來,認為智能低的人,在生理上補償性地有性旺盛的傾向。這使得許多先天低智能人士遭到拘禁。十九世紀同時也是面相學興盛的時候。醫師們使用「科學方法」,研究犯罪者、猶太人、同性戀的臉型,希望歸納出一套靠面孔辨認出他們的方法。

十九世紀的面相學
回頭看歷史,我們知道為什麼這種研究注定徒勞無功: 一個人之所以成為法外慣犯,可能是因為階級出身或社會位置,但絕不是因為多長了哪跟骨頭。由於偏低的工資,十九世紀的女工很難在不爭取額外收入的情況下維持生活。「辨識妓女」本身更是一個偽科學題目: 連「妓女」這詞都難以下一個定義。如同性運人士所不斷強調的,若謂出賣肉體、換取金錢的是妓女,在婚姻內和同一個男人發生性行為換取長期飯票的如何卻不算?套到現代的情況,跳脫衣舞的女郎算妓女嗎?檳榔西施算嗎?援交少女算嗎?顯然,「妓女」是一個社會權力運作下發明的身分。

同樣地,「色情圖片」或「色情文字」也沒有一個固定的定義,純粹是權力運作的產物(什麼是胡文中所謂的「色情因子」?)。「感官世界」到底是不是「色情」電影?現在仍有所爭議。多年前塞內加爾和近年巴黎麗都秀、巴西嘉年華的裸上身表演,仍讓台灣大驚小怪一番。

慣犯、妓女、與同性戀者相對於常人、「色情」圖文相對於非色情,與其說是有什麼本質上的不同,不如說是在特定時空背景下,這些人/物被視為一種社會問題。為了解決社會問題,權力機制亟欲把這些人/物的身分固定下來,以便於進行。這樣的身分、分類純為建構而來 — 因為它被認為是色情,所以它是色情。而偽科學家們卻想以這種身分發明為基礎,為它賦予「科學證據」。他們並不善盡一個研究者的職責,發掘更多新知,反倒深化我們的偏見,讓我們以為真有上述的分類存在。

弔詭地,如同傅柯所說,這樣的分類/標籤表面上想要解決社會問題。但事實上,一旦相信的確有種種分類存在,並使身分的日益深化和穩固,反倒確保了社會問題將持續地發生。一旦被標籤為罪犯或妓女,將難以漂白。一旦我們相信色情與非色情真有本質上的不同,何謂色情、何謂藝術的爭議就將永遠持續下去。更多界定色情、判定色情、分辨色情的論述將不斷地產生,而研究者與被研究者的高下身分卻固定下來了。現代的權力運作並不僅靠壓迫。分類、觀察、並不斷地產生論述,才是權力得以運作的真髓。

* * *
如果以為這種偽科學只是十九世紀的過往,我們再來看看二十世紀的故事。

在八零、九零年代,美國掀起了一陣對「撒旦儀式虐童」的恐慌,把箭頭指向日間育兒班內、或低收入家庭內,擔心兒童可能受到性侵害。同時,部份醫師們也漸漸發展出了一套檢驗女童性器官以及男女童肛門的偽科學,試圖辨認性器官應呈怎樣的色澤、形狀才是「正常」,怎樣的特徵顯示可能曾遭受性侵害。顯然,沒有真進行過什麼控制實驗告訴我們未受過性侵害的女童私處應該長什麼樣子。醫師們提出的不過是心目中對完美性器官或肛門形狀的幻想,一些諸如小、對稱等等的臆測罷了。然而,當兒童不能達到這些測量標準,警察隨即展開逮捕蒐證的獵巫行動。許多人因而被捕入獄。

如果發生在今日,我們不難想像改用電腦做辨識,將所有兒童的性器圖片建檔,並以電腦過濾的研究。

* * *
胡文似乎也明白把「色情」當作研究題目的難處。故而在「緒論」一節花了大部分篇幅從知識流通、網路發達、色情暴力、談到為青少年學子杜絕色情的大願景後,終於在最後一句話「有鑑於此… 將題目從如何判斷這是色情影像,縮小成如何判斷一張彩色影像裡是否含有裸體的人類」。精確地說,所謂的裸體「人類」僅限於女人。真正辨識的目標是大面積的皮膚、乳頭和陰毛。限於女體的設計,固然可說是針對其應用,卻也暗示了作者本身站在什麼樣的位置。

如果作者的研究目標就是偵測圖片內的女體或特定部位,倒也沒什麼可批評。然而,若把這項研究放到「杜絕網路色情」的大遠景中,我們就不得不問,這樣的問題設定是否受到什麼偏見的影響?把偵測乳頭和私處的技術實作出來,就如同把測量兒童私處特徵的技術實作出來。然後呢?這能達到什麼形式的社會正義?

(事實上,作者所引用的幾篇相關論文雖然同樣研究裸體圖片偵測,對於應用方式倒是站在曖昧的立場。有些論文提及此項技術固然能作為阻擋網站之用,也可能反過來做裸體圖片的搜尋和建檔。這樣的曖昧立場倒是聰明得多。)

有趣的是,胡文受到網友注意後瘋狂地下載,反倒使得成大校方不得不將該論文下線,先把這篇論文給擋了。固然作者有一套嚴正的動機,網民們凡是能意淫一番的仍不會客氣。這也是無可奈何的諷刺吧。

參考資料
Zonble: 被觀視、被辨識、被切割、被取樣、被分析、被書寫成論文的女性客體

Paula Bartley: Prostitution: Prevention and Reform in England, 1860-1914.

Debbie Nathan, Michael Snedeker:Satan’s Silence: Ritual Abuse and the Making of a Modern American Witch Hunt.