治理應該是日常能力,不只是定期投票。
大多數 AI 對齊工作,都是試圖由上而下地解決價值問題:寫出更好的規則、推斷更好的偏好、訓練更好的模型。這些工具很重要,但光靠它們並不夠。
關懷六力從別的地方出發。它追問的是:誰被聽見、誰負責、失敗如何被修復、以及系統何時應該退場。對齊不是一次解完;它必須在公共程序中持續維護。
部署的基本單位是地神(Kami)——有界的在地守護者,而非全能的統治者。地神協助社區、學校、工會、信仰團體、城市與離散社群,實現集體自治長久以來承諾卻難以規模化的事:跨越差異傾聽、公開審議、忠實記憶、共同行動。
沒有任何中央模型擁有它們。沒有任何平台從中榨取。社群治理它們、檢查它們、質疑它們、也關閉它們。
真正的突破不是更聰明的聊天機器人,而是更強健的自治:制度公開運作過程、在眾目下修復損害,並將公民記憶代代傳承。
從這裡開始
- 政策。 先讀計畫宣言、常見問題,以及《AI 對齊不能由上而下》。
- 工程。 先讀三:勝任力、衡量指標,以及《地神之內》。
- 公民實踐。 先讀一:覺察力、四:回應力,以及Podcast:關懷六力。
關懷六力
關懷六力是 ⿻ 多元宇宙 在 AI 治理上的應用。Pack 1–4 構成一個回饋迴圈(覺察力 → 負責力 → 勝任力 → 回應力 → 再回到覺察力)。Pack 5 將這個迴圈擴展到跨組織。Pack 6 是邊界條件,確保每個部署保持在地、多元、可退場。部署的基本單位是地神(Kami)——有界的在地管理者,而非全能的統治者。
六項設計原則,把關懷倫理轉化為制度可以建造、檢查與修正的做法:
- 一:覺察力 ——制度還沒看見、但最接近痛點的人已經看見了什麼。
- 二:負責力 ——誰負責、握有什麼權限、失敗時會發生什麼事。
- 三:勝任力 ——系統是否真的在實務上可稽核、可解釋,而且能安全試錯。
- 四:回應力 ——受影響的人是否能提出異議、要求修復,並讓系統改變。
- 五:團結力 ——整個生態系統是否獎勵合作、退出與公開問責,而不是平台鎖定。
- 六:共生力 ——系統是否保持在地、有界、可退場,而不是硬化成永久統治。
- 衡量指標 ——每個「力」各有一項對外公開的主指標,並附輔助診斷。
四個切入案例
- 公共政策案例。 《AI 對齊不能由上而下》說明臺灣如何用對齊大會回應 AI 詐騙廣告。
- 技術案例。 《地神之內》主張,有界且專精的系統比通用型智慧體更容易治理。
- 公民實踐案例。 《數位公民》和Podcast:AI 與民主展示這套工作如何連到參與、正當性,以及日常公共問題解決。
- 長期照護案例。 《長期照護仁工智慧中的覺察力》探討一個跨部門協作如何與最接近問題的人共同產製以照護為核心的負責任仁工智慧定義。
學術發表
- 〈廢除 Section 230,釋放第一修正案〉:唐鳳、Jaron Lanier 與 Allison Stanger 主張終結演算法放大的免責保護,同時保護人類言論——這是 Pack 5 核心的觸及而非言論改革。(Communications of the ACM, 2026 年 1 月)
- 〈惡意 AI 群集如何威脅民主〉:唐鳳與 Maria Ressa、Nick Bostrom、Nicholas Christakis 等 19 位研究者共同記錄 LLM 驅動的智慧體群集如何滲透社群、在人口規模上製造假共識。(Science, 2026)
- 〈對話網路〉:唐鳳、Deb Roy 與 Lawrence Lessig 提出公民通訊基礎設施——可互通的應用程式加上由社群引導的仁工智慧——作為關懷六力的技術層。(McGill Centre for Media, Technology and Democracy, 2025 年 3 月)
- 〈社群出發的設計〉:唐鳳與 Glen Weyl 等四位共同作者提出以社會結構為核心重建社交平台——獎勵搭橋社群的內容,而非最大化互動。Packs 1 和 5 的技術基礎。(arXiv, 2025 年 2 月)
計畫簡介
本計畫介於計畫宣言、一組可操作的 pack 頁面,以及一本預計 2026 年出版的書之間。唐鳳與 Caroline Green 將於 2026 年 3 月 25 日在仁工智慧研討會(Civic AI Conference)發表本框架。