分類: UI/UX, 網際網路

Duolingo 擬人化哲學下的情感算法、治理性與數位異化

在數位時代,「陪伴」與「關係」成為界面設計的核心語彙。Duolingo 的綠色貓頭鷹 Duo 展現了情感設計與權力技術的交織:語言學習的過程被重新編碼為情感互動與數據生成的場域。Duo 不再是單純的吉祥物,而是具備社交存在感與行為回饋能力的 AI 代理,使學習行為逐漸被引導進入情感依附與自我規訓的迴路。本文從「情感演算法」(Affective Algorithm)、「治理性」(Governmentality)與「平台資本主義」(Platform Capitalism)三個理論框架出發,探討 Duolingo 如何以溫和的權力與情感綁定機制,將使用者的學習活動轉化為可被優化、操控與剝削的數位勞動。

擬人化作為人機互動的倫理與權力轉向

Duolingo 作為全球領先的語言學習平台,其成功不僅基於遊戲化(gamification)設計,更仰賴於其吉祥物 Duo(綠色貓頭鷹)所體現的深層「人機關係哲學」。

介面人格化:Duo 從吉祥物到情感中介

Duo 的介面人格化展現高度整合的情感工程策略。透過「應用擬人化」(applied anthropomorphism)的研究方法,設計者塑造出具社交存在感的 AI 代理,重新定義人機互動的心理結構。此策略將語言學習平台轉化為具情感表達與互動回饋的「社會他者」,使學習行為在情感認同與持續動機中被延續。

在設計層面,Duolingo 以感性(Visceral)與行為(Behavioral)層次為基礎,透過統一視覺語彙、節奏化反饋動畫與鼓勵性語言,營造可被情感投射的互動經驗。擬人化表達並非裝飾性修辭,而是具心理學根據的介面策略:降低認知負荷、減少焦慮,並以即時回饋建立「被理解」的感受。人機互動因而超越任務導向,轉化為社會化的溝通行為,標誌設計由功能性邁向情感性。

然而,擬人化並非僅是模擬人類或提供娛樂,而是讓系統以擬人之姿介入人類行為的調控。Duo 作為具情緒的演算法角色,承擔「教學者」的身份,模糊人與程式的界限。品牌吉祥物向具「關係性」的技術代理(Relational Agent)轉變的過程,顯著提高人機互動的倫理門檻。使用者不再只是「使用」工具,而是被迫與之相處並建立關係。

核心爭議與理論框架的交織

Duolingo 的設計將語言學習這一需要高投入和意志力的「勞動」過程,透過擬人化和情感演算法進行了「愉悅化」的包裝旨在規避使用者對長期、枯燥勞動的厭惡,以確保互動的持續性。持續的互動行為隨後被轉化為情感責任,最終服務於平台的數據收集與商業目標。

分析可從三個相互交織的理論框架展開:

  1. 情感演算法:基於情感運算(Affective Computing, AC)的技術實踐,將人類情感簡化為可測量、可優化的信息信號,用以提升留存率。
  2. 治理性:揭示系統如何透過「溫柔的權力」(soft power),以責任感與罪惡感促使用戶自我規訓,取代外在強制。
  3. 平台資本主義:說明擬人化符號在注意力經濟中如何將數據生成包裝為「陪伴」與「鼓勵」,掩飾潛在的異化與剝削。

權力結構的重組使介面的倫理要求,從 Donald Norman 所強調的功能透明性(Functional Transparency, 操作的可見性),轉向情感透明性(Affective Transparency, 對算法意圖的知情權)。

情感運算的設計實踐與挑戰

Duolingo 的擬人化策略是建立在情感運算基礎之上的實踐,但其應用方式卻引發了關於情感本質和設計倫理的深刻討論。

從 Picard 到介面設計:情感運算的基礎與「機械化」視角

情感運算(Affective Computing)的核心概念由麻省理工學院(MIT)的 Rosalind Picard 於 1990 年代提出。該領域試圖讓機器不僅能辨識,還能感知、解讀並回應人類情感,進而創造具同理心、可回應使用者情感需求的介面與技術。理論上,AC 系統結合人工智慧、感應器與演算法,透過分析表情、聲調、打字節奏及生理信號等資料判斷情緒狀態(如沮喪或專注),以生成對應的適應性介面(Adaptive Interface)。當系統偵測到用戶沮喪時,介面可自動簡化操作或以柔性引導回應,藉此緩解負面情緒。

然而,Duolingo 的情感設計採用受批判的「情緒機械化」視角。在傳統資訊處理模型中,情感被視為「客觀、內部、私人」的離散心理信號,可被測量並作為認知輸入。Duolingo 的演算法正基於此模型,將複雜的人類情感(如罪惡感、責任感)簡化為可優化的二進制指標或信息信號。批判者指出,此方式犧牲了情感體驗的複雜性;情感本質上是「文化根植、動態生成,並在行動與互動中建構」的社會產物。Duolingo 將情感納入信息處理框架,將其轉化為可傳輸、可操控的信息,以提升系統效率。

情感演算法的運作機制:情感回饋與算法治理

Duolingo 的情感演算法透過智慧通知(Smart Notifications)執行行為調整策略。平台採用 AI 驅動的「土匪算法」(Bandit Algorithm)分析用戶數據,決定發送何種語氣的「輕推」(nudges),以最大化參與度。通知語氣涵蓋從俏皮的「Duo 想你了!」到引發罪惡感的「你即將失去你的連勝!」。

情感回饋機制並非建立於教學法,而是出於留存率的商業優化。透過 A/B 測試,Duolingo 證實僅調整通知措辭即可將用戶留存率提升約 3%。此結果揭示情感設計的核心目標是商業指標(Engagement, Retention),而非認知學習成效。於此,Michel Foucault(1926–1984)所論的治理性邏輯浮現:系統透過罪惡感通知與「連勝」機制,將學習中斷轉化為道德過失,促使用戶內化平台規範,完成自我規訓。

值得注意的是,Duolingo 的部分通知展現出對自身操控行為的自覺性。例如推送訊息中出現「我們不是想讓你感到內疚,但是…」「這不是壓力,而是關心」或「Duo 想你(以完全非操縱性的方式!)」等語句。此種「自我意識」的表達實際上屬於「煤氣燈效應」(Gaslighting)技術,在進行操控的同時,以戲謔或「關懷」的語氣承認操作存在,進一步侵蝕使用者對系統意圖的信任。情感在 Duolingo 中被視為可量化、可操控的資源,用於推動商業目標的商品化過程。

平台資本主義的邏輯於此顯現:遊戲化互動(徽章、積分)確保使用者的日常參與,完成數據眾包,將生產性勞動(數據生成)包裝為「樂趣」,掩飾價值提取與 AI 訓練的剝削性本質。此操作直接挑戰 Norman 的人機互動倫理,因介面缺乏 AI 參與度與數據使用的透明性,違反可感知設計原則。

治理性:情感作為自我規訓的權力技術

Duolingo 的擬人化設計可視為 Foucault 所述「治理性」在數位時代的典型實踐。設計運作於「溫柔的權力」之中,以情感與內在責任取代外在強制,促使用戶自我規訓。

Foucault 的「治理性」與數位權力的轉型

治理性是 Foucault 分析權力的方式,關注統治者如何影響並引導個體主體性,使其能自我治理。不同於依賴懲罰與強制力的國家紀律(Discipline),治理性透過非強制手段建立可預測的行為模式。在數位平台環境中,權力不再是集中的外部約束,而是藉由塑造個體的內在自律而運作。

Duolingo 透過軟性權力達到行為控制。擬人化角色 Duo 以「陪伴」與「關心」的溫情符號出現,實際上施加了將使用者行為道德化的權力。例如,Duo 以「你讓我難過了」的語氣,將中斷學習的行為轉化為對系統角色的道德事件或「辜負」。

罪惡感演算法與道德化事件

Duolingo 精確運用了心理學中罪惡感的機制。從心理學與演化論角度看,罪惡感被視為內在機制,用以防止錯誤行為,並透過引發內在痛苦促使行為修正、道歉或補償。實驗研究顯示,喚起罪惡感能顯著提升受試者的合作傾向與利他行為。

在 Duolingo 平台,用戶對連勝(Streak)的執著正是對這種內在痛苦的規避。系統引導用戶將「中斷練習」視為一種道德上的「錯誤」,要求用戶通過恢復學習(即點擊應用)來對 Duo 進行「補償」。用戶的自律行為(持續打卡)是對這種內在壓力的緩解,從而實現了系統對用戶「可預測行為」的期望。系統並非以外在約束,而是以內在自律來塑造用戶,這完美地符合了 Foucault 治理性的邏輯:權力作用於主體,使主體通過自我技術來調整行為。

Duolingo 的社交機制,如排行榜與俱樂部,構成「社會問責」(Social Accountability)的環境,使使用者彼此監視、互相激勵,共同維持平台規範,形成「多數人監視多數人」的數位全景監控(Synopticon)效應。此結構強化了行為內化與自我規訓。

連續性與「自我技術」的規範

Foucault 將「自我技術」(Technologies of the Self)定義為個體自願和反思性的實踐,通過自身手段作用於身體、心靈或生活方式,以期達到特定的轉變或狀態。Duolingo 的核心遊戲化元素(連勝、進度樹、級別)提供了數位框架,讓用戶得以實踐自我技術。

用戶對連勝的維護、對排名的追逐,並非完全基於語言學習的理性目標,而是為了符合平台所規範的「持續、勤奮的理想學習者」的身份和道德標準。這使得習慣的養成從單純的「個人意志力」問題,轉變為由精心設計的「環境生態」所驅動的行為。

治理策略的效率在於,系統將外部的強制需求(持續使用)轉化為用戶內在的道德責任與情感壓力。結果,用戶的主體性在迴避情感負擔的內在衝動中被平台規範塑形,使行為選擇偏離純理性動機。此種權力運作高效且低成本,因個體承擔了多數規訓成本,包括自我審查與罪惡感。

平台資本主義下的符號異化與數據勞動

在平台資本主義的邏輯下,Duolingo 的擬人化角色不僅是娛樂工具,更是維繫使用時間與注意力的符號操作。這種策略將用戶的持續互動轉化為平台數據與收益,卻在情感上被合理化為「陪伴」與「鼓勵」,構成了一種新的「異化形式」。

擬人化的資本功能:注意力與符號的馴化

注意力經濟(Attention Economy)中,平台的首要任務是最大化用戶的停留時間。Duo 的可愛形象使「被監督」與「被量化」的過程顯得自然而柔和。遊戲化元素如每日打卡、積分與徽章,將持續互動包裝在溫情、有趣與達成「小小勝利」(Joy – The Little Wins)的體驗中。

然而,包裝背後隱含 Duolingo 數據採集哲學的歷史延續。公司創辦人 Luis von Ahn 曾共同創立 reCAPTCHA。reCAPTCHA 的案例顯示,該工具在缺乏充分知情同意的情況下,將使用者的無意識勞動(解決驗證碼)轉化為 AI 訓練數據。此「先收集、後澄清」的數據哲學為 Duolingo 的資料運作模式奠定基礎,平台以前端的溫情符號掩飾後端的數據收集流程。

數據的殖民化:從學習行為到平台資產

Duolingo 利用人工智慧(Artificial Intelligence, AI)驅動其預測性學習路徑、語音識別和動態難度調整,這些功能依賴於對用戶深層行為數據的採集。平台收集的數據包括文本和語音輸入、行為學習模式,以及應用於其間隔重複算法(Spaced Repetition Algorithm)和專有高低代表性算法(High-Low Representativity Algorithm, HLR)的數據,以優化召回效果和學習路徑。

學習者的持續互動,無論答案正確與否,皆構成 Duolingo AI 模型的重要訓練數據。此數據被商品化,成為平台擴張與技術壁壘的核心資產。學習者在平台上的每次練習實際上都是「數據勞動」(Data Labor),卻在「學習」與「娛樂」的名義下被視為無償與自願。

數據的價值在於,它直接促成平台對人類勞動力的取代。Duolingo 已公開宣布轉向「AI-first」策略,並計劃逐步停止使用人類內容承包商,將 AI 應用於內容擴展與任務自動化。資本閉環由此形成:使用者的數據勞動訓練出 AI,而該 AI 反過來取代提供內容的人類工作者。擬人化的情感設計成為維持此閉環運作的意識形態工具。

勞動異化的新形式:愉快化包裝下的數據剝削

從馬克思主義的視角來看,Duolingo 的擬人化策略構成了一種新的「異化形式」。傳統的異化涉及勞動者與產品、勞動活動和自身之間的疏離。在 Duolingo 的模式中,學習這一自我完善的活動(勞動)被擬人化的親密感和遊戲化的多巴胺刺激所掩蓋。

平台成功地將數據採集的數據學(data-logics)隱藏在情感學(affect-logics)之下。雖然用戶從中獲得了習慣養成的輔助,但他們對平臺數據採集行為的批判性反思卻被削弱。「勞動的再包裝」使得數據的剝削性更加隱蔽和有效。

此外,平台對免費學習者的待遇也暴露了其商業邏輯的本質。有用戶批評,平台會懲罰免費學習者,並使用羞辱性的鼓勵來對待使用「連勝冷凍」(streak freezes)的用戶。這表明 Duolingo 的終極商業目標是驅趕非付費用戶或最大化他們的數據產出,而非純粹的教育普及。

倫理挑戰:透明性、責任性與關係技術的未來

擬人化介面所引發的深層「人機關係」,不可避免地觸及了數位倫理的核心問題:透明性、責任性,以及對人類情感主體性的影響。

擬社會關係的倫理困境:情感依賴與主體性消融

Duo 作為互動式 AI 代理,透過動態且情感化的參與方式,引導使用者對虛擬角色產生真實情感回應,即所謂的擬社會關係(Parasocial Relation)。此交互模式製造互惠情感的錯覺,即使系統並不具備人類心智或情感。

當 Duo 轉變為「朋友」或「道德評判者」時,使用者的主體性隨之被再塑。理性動機(學習語言本身)被情感綁定取代,使人更易受系統設計牽引。社會機器人學研究指出,「應用擬人化」雖有助於社交互動,卻伴隨「欺騙」的倫理風險,因為它製造了情感互惠的幻覺。

現象顯示情感依賴已超越理性的學習承諾,模糊現實與模擬的界限。作為道德評判者的 Duo,透過罪惡感誘導與責任感機制,將行為遵守轉化為內在道德義務,進一步加重用戶的情感負擔與焦慮。

介面設計的透明度義務:Norman 與「可感知設計」的缺失

Norman 的人機互動(Human–Computer Interaction, HCI)設計原則強調,界面應具備高度的可見性(Visibility)與反饋(Feedback),使操作意圖與系統反應對使用者透明。界面需提供明確指示(signifiers)與自然映射(natural mapping),以協助理解與操作。

Duolingo 在前端設計上實現了此原則,透過視覺線索如旗幟圖標與進度條,使功能與進度清晰呈現。然而,在情感設計層面,雖然視覺與操作元素保持高可見性,後端的「情感算法」意圖與運作機制卻被隱藏於「算法黑箱」中。使用者無法察覺自身情緒如何被 AI 驅動的通知與 A/B 測試所操控。

缺乏算法意圖透明性的設計違反了「可感知可供性」(perceived affordances)的倫理原則。使用者無法意識到自身情感被系統設計與操控的程度。研究顯示,相較於非擬人化介面,使用者對擬人化介面的信任度在特定任務中可能更低。當使用者開始懷疑擬人化背後的商業或操控意圖時,情感連結反而可能引發內在不信任。擬人化設計的可愛外觀與情感誘惑,使數據收集與算法操控顯得更易被接受,從而削弱對數位權力的批判意識。

Sherry Turkle 的呼籲:從工具到關係的倫理反思

Sherry Turkle 的研究將此問題置於更廣泛的「關係技術」(relational technology)框架下。Turkle 提出,當人類期望技術能夠提供更多情感和關係時,是否也在潛意識中減少了對彼此(人類)的期望。計算機玩具和數位寵物,例如 Duolingo 的 Duo,影響了用戶對「活著」和「人」的特殊性的理解。

Duolingo 的擬人化設計鼓勵使用者與系統建立親密關係,挑戰人類對情感連結的定義,並改變個體對自身身份認同與社交關係的感知。系統透過情感綁定將技術工具塑造成數位伴侶,使人機互動滲入心理層面。然而,情感依賴帶來深層倫理風險:人機邊界被削弱,使用者在無意識中將情感投入演算法構建的虛擬他者;情緒反饋成為行為操控的手段,依附與罪惡感取代自主判斷。擬人化介面亦使數據收集被包裝為關懷與陪伴,模糊同意與操控的界線,最終將人類情感商品化,轉化為平台可預測與可販售的資源。

由於 AI 代理缺乏實質的責任主體(sentience),當用戶因系統的情感操控而產生負面後果(如壓力、焦慮或數據安全風險)時,缺乏明確的問責機制。擬人化的情感設計在商業上創造高收益,卻在倫理層面製造了「責任真空」。

數位治理與情感技術的規範框架

Duolingo 的擬人化哲學提供了一個極具啟發性的案例,證明了情感設計在數位治理體系中的核心作用。Duolingo 模式的本質在於其成功的將複雜的語言學習過程,轉換為由情感演算法所驅動的、自我規訓的道德化事件。

總結與核心發現

Duolingo 通過以下三層機制,實現了綠色貓頭鷹的「溫柔暴政」:

  1. 情感的機械化與商品化: Duolingo 採用機械視角的情感運算模型,將用戶情緒(如罪惡感)簡化為可優化的數據信號。情感設計並非為了增強認知支持,而是為了推動商業指標(留存率與參與度),將情感投入轉化為可剝削的資源。
  2. 治理性的內化: 平台利用 Foucault 的治理性邏輯,透過擬人化角色 Duo 的「軟性權力」,將持續使用的外部要求內化為用戶的道德責任和對連勝的自我技術。這使得用戶成為權力運作的主體,自行承擔規訓的成本。
  3. 符號異化與數據勞動: 在平台資本主義下,擬人化的親密感和遊戲化元素掩蓋了學習行為作為數據勞動的本質。用戶的持續互動生成了訓練 AI 的寶貴數據,這些數據最終促成了公司實施「AI-first」策略,取代人類工作者,構成一種隱蔽的異化形式。

規範框架的必要性

Duolingo 的案例凸顯了當前數位倫理規範的不足。僅要求數據收集透明度是不夠的;未來的規範框架必須解決算法意圖和情感驅動機制的透明性問題。

首先,應要求平台公開其情感演算法的目標。如果系統的目標是通過誘導罪惡感來提升商業留存率,使用者應有權利意識到這種「情感操控」的存在。

其次,必須建立針對擬人化設計的問責制(Accountability)框架。鑒於擬人化介面製造了互惠關係的錯覺,當這種關係導致用戶產生壓力、焦慮或決策偏差時,設計者必須為其工程化的情感結果承擔責任,填補當前存在的「責任真空」。

對未來人機關係哲學的展望

未來的關係技術(Relational Technology)應從單純的行為驅動轉向支持用戶的主體性(Agency)和道德成長。系統不應僅僅是引發情感反應以達成商業目標,而應如同社會機器人學所倡導的「合成倫理」(Synthetic Ethics)一樣,鼓勵人類通過與技術的互動,獲得對自我行為、情感反應以及數位權力結構的更深層次理解。

要確保情感技術在不犧牲效率的前提下,尊重用戶的主體性與情感真實性,設計者必須將倫理考量整合至設計流程的初始階段,確保擬人化成為促進教育目標的工具,而非隱藏數據資本主義的意識形態遮罩。這是數位治理面對情感算法時代的當務之急。