摘要
本文探討援交App內部「互評機制」如何在數位環境中重構性別權力不平等。透過制度設計、演算法偏向、語言符碼與社會文化背景的分析,揭示看似中立的互評制度實際上延續了父權社會的價值觀,並加深女性從業者的被監控與被馴化處境。研究指出,互評機制將女性身體與情緒勞動轉化為可量化的市場數據,使權力關係內嵌於平台邏輯之中。最後本文提出平台責任與政策改革方向,以建立更具性別敏感度的數位治理模式。
第一章 前言:數位信任機制的權力陷阱
在援交App的生態中,「互評」被視為保障使用者安全與建立信任的核心機制。平台聲稱,透過雙方互評能減少詐欺、強化透明度,並促進良性互動。然而,在性別化的現實社會中,評價制度並非單純的技術設計,而是一種權力運作的延伸。它不僅反映社會對女性的評價方式,更將這些偏見以數據形式制度化、持續化。
援交App的使用者分布中,多為男性消費者與女性提供者。此結構使「互評」失去真正的對等基礎,演變為男性主導的話語空間。本文試圖回答三個問題:
為何評價制度在表面中立之下再製了性別階層?
互評機制如何影響女性的勞動、心理與社會形象?
可否透過制度改革重建性別平衡?
第二章 互評機制的制度設計與表面中立性
援交App的互評機制多採五顆星制與文字評論。設計上聲稱「雙方皆可評價」,但實際上男性顧客的評論具更高可見度。許多平台公開女性服務者的評價紀錄,卻不顯示顧客端評分。如此「單向透明」造成資訊不對稱:女性被全面檢驗,而男性則隱於匿名。
此外,女性評價多被納入演算法排序中,影響曝光率與配對次數;反之,男性評價往往僅作為內部資料,不影響匹配。這使女性成為「被市場審判」的對象,形成新的「數位性別契約」:女性須以高評價維持生存,而男性以評分掌握控制。
此種制度化偏差,使互評機制從信任工具轉變為壓迫工具。其所謂「客觀數據」實際上深植性別不平等,將社會偏見以技術形式再現。
第三章 評價恐懼與情緒勞動的加劇
在援交App中,評價結果直接影響女性收入。低於4.5分者曝光率下降,甚至遭平台降權。女性為維持分數,需投入大量情緒勞動:以笑容應對無禮客戶、忍受越界行為、在負面互動後仍須保持禮貌,以免被報復性差評。
一名受訪者指出:「有時客人喝醉亂摸,我若生氣,他隔天就打一顆星。平台不會問原因,只看分數。」這樣的「數據恐懼」讓女性陷入情緒自我壓抑與自責循環。
評價成為控制工具,男性可用「給好評」作為談判籌碼,進一步延伸交易權力。女性在數位勞動中被要求「永遠取悅」,以數據形式重新經歷父權式馴化。
這種現象反映「性別化的服務倫理」:女性被期待維持柔順、取悅與情感支援,而非理性談判。互評機制遂將情緒勞動商品化、量化,轉化為平台利潤來源。
第四章 演算法偏向與性別化排序
互評資料不僅是紀錄,更是演算法學習的基礎。演算法將「高評價」的女性優先推送給顧客,使數據形成「性別化排序」。研究顯示,演算法偏向年輕、皮膚白皙、體型纖細的女性;而「自主性高」「拒絕特定要求」者則被標示為「風險用戶」。
這種偏向源自男性使用者評分習慣,反映社會對女性的審美與服從期待。演算法不但未中立化偏見,反而將其強化。結果是:
評價高的女性被更多推送,形成「流量富者越富」;
評價低者被隱形,喪失生存空間;
平台藉此塑造「理想服務模板」,排除多元女性樣貌。
因此,互評機制與演算法結合後,製造了「數據階級」:以性別與外貌為基礎的階層秩序。這種數位歧視在外觀上理性、實則性別化極深。
第五章 語言評價的權力符碼
文字評論區揭示了更細膩的性別權力運作。男性評論常以「乖巧」「聽話」「身材好」「不囉嗦」等語言描述女性,這些詞彙看似正向,實則內含控制與物化意涵。相反,當女性展現主體性或拒絕服務時,評論易出現「態度差」「不敬業」等字眼。
這些評價語言形成一種文化框架,使女性被歸類為「好相處」或「難搞」兩極。她們的專業與人格被評價語言遮蔽,只剩「可被取悅」與否。更重要的是,這些評論被平台視為「市場反饋」,納入演算法學習,進一步擴散偏見。
另一方面,平台的女性之間也被迫競爭。排行榜制度、好評榜單讓女性必須相互比較。互評從「雙向信任」變成「零和排名」,女性被迫以他人低分換取自己高分,破壞潛在的職業團結與互助。
第六章 性別化風險治理的偽中立
平台常以「安全」與「信任」為互評制度的正當性。它聲稱,評價可過濾危險客戶與不良服務者。然而,這種「安全」是選擇性的:平台主要關注顧客滿意度,而非女性安全。
例如,女性若檢舉顧客騷擾,平台多要求「證據」;但顧客給差評卻無需驗證。這反映「信任機制」其實只偏向交易穩定,而非性別正義。
此外,平台以「演算法自動化」為理由逃避責任,宣稱排序結果為「中立數據產出」。然而,算法的訓練數據與參數設定皆由人為決定,帶有隱含偏見。這種「技術中立的迷思」掩蓋了平台對性別不平等的參與與放任。
平台治理若忽略性別視角,所謂的風險控管實際是風險轉嫁——將社會歧視與暴力風險轉嫁給女性使用者個體承擔。
第七章 心理效應與自我內化
長期處於評價壓力之下的女性,容易出現自我審查與焦慮內化。許多人開始在見面前預演談吐、調整笑容、修正語氣,以避免被誤解為「難搞」。這些行為形塑出「演算法式女性形象」:一種為迎合市場評分而建構的人工人格。
心理學角度而言,這屬於「數位自我規訓」(digital self-discipline),即在被觀察與評分的環境中,個體主動自我馴化以求安全。此現象讓援交App的女性使用者逐漸失去真實表達的空間,將「高分人格」視為生存策略。
從社會層面看,這種內化不僅限於App內部,也滲透至現實生活。女性學會將「被評價」視為常態,甚至在其他社交場域中延續迎合行為,形成「被評價式人格」的延伸影響。
第八章 平台責任與制度改革方向
若欲改變性別不對等,需從平台治理與政策兩層面著手:
透明化演算法運作:平台應揭露評價權重、排序原則,並建立性別偏差審查制度,防止偏見強化。
評價對等設計:顧客評價應非公開或雙向匿名,避免差評報復與名譽懲罰。
申訴與撤評機制:設立中立仲裁機構,允許女性對惡意評價提出刪除申請。
性別敏感度教育:平台可要求用戶閱讀性別平權守則,以改變語言暴力與歧視用語。
政策監管:政府應將此類平台納入「數位性別治理」框架,要求評價制度符合性別平權原則。
這些措施不僅保障女性權益,也提升整體數位生態的倫理品質。
第九章 跨國比較:日本與韓國案例
日本部分援交平台(如「パパ活アプリ」)已嘗試導入「雙向匿名評價」制度,評價僅供內部風險控管,不對外公開。此舉降低報復性差評事件,也使女性更敢於拒絕不當要求。
韓國則在2023年推出「AI風險分析模組」,由演算法自動偵測異常評論文字(如侮辱、性暗示),並警告使用者。這顯示東亞地區逐漸重視數位性別治理。相比之下,台灣的援交與包養App仍缺乏明確監理架構,互評機制常被用作操控與排除女性的工具。
透過比較可見,技術治理若缺乏性別敏感度,將使平台淪為「數位父權機器」。而若能結合人權與AI倫理設計,則有機會重建公平秩序。
第十章 結論:從「評價」走向「理解」
援交App的互評機制揭露出一個更深層的矛盾:當信任被數據化,關係便被權力化。女性不再是自主的互動者,而是被演算法與男性視角共同塑形的數位商品。
本文指出,互評機制的問題不僅是設計瑕疵,而是制度性父權的延伸。它讓「看似公平的技術」成為「性別不平等的再生產」。因此,改革不應止於技術層面,更需挑戰背後的價值體系——將性別平權納入平台倫理核心。
唯有當評價機制從「消費檢驗」轉變為「相互理解」的對話,數位性交易空間才可能邁向真正的對等與尊重。
延伸閱讀
