科技行者用戶體驗已成過去時 AI要從公民乃至社會的角度去思考問題

用戶體驗已成過去時 AI要從公民乃至社會的角度去思考問題

用戶體驗已成過去時 AI要從公民乃至社會的角度去思考問題

用戶體驗已成過去時 AI要從公民乃至社會的角度去思考問題

2021年2月2日 15:47:39 科技行者
  • 分享文章到微信

    掃一掃
    分享文章到微信

  • 關注官方公眾號-科技行者

    掃一掃
    關注官方公眾號
    科技行者

隨著AI解決方案的社會影響日益明顯,我們需要從公民乃至社會的角度考慮AI技術的效果以及設計/開發原理。

來源:科技行者 2021年2月2日 15:47:39

關鍵字:AI

時至今日,科技巨頭及其基于AI的數字平臺與解決方案,完全有能力影響全球領導人、民族國家、跨國企業、全球股市乃至每位個人的命運。

目前,各大主要數字平臺的建立者、以及各類AI系統的設計人員與開發人員,仍然在將個人視為用戶、客戶或者數據點,但卻常常忽略個人作為公民的角色與權利。

用戶體驗已成過去時 AI要從公民乃至社會的角度去思考問題

結果就是,個人用戶及客戶被從社會背景下徹底剝離出來,并引發了可怕的后果。這些個人可能會在不自覺中成為錯誤信息的傳播載體;得不到第一手正確信息的使用者有可能被拉攏為暴力叛亂分子;而在申請工作或更新保險訂單時,用戶也有可能遭到有偏見AI系統的不公平對待。

為什么要推動公民體驗設計?

如今,隨著AI解決方案的社會影響日益明顯,我們需要從公民乃至社會的角度考慮AI技術的效果以及設計/開發原理。

通過種種現實證據,我們已經意識到有偏見的AI系統正在給醫療保健、科學研究、刑事司法乃至金融服務等各個領域帶來嚴重影響。此外,我們也一直在見證關于數據權利與慣例的積極發展。

但僅從GDPR或數據治理計劃等角度出發對高科技企業進行監管,顯然還遠遠不夠。同樣的,對新興算法的審計方法還不夠成熟,不足以直接影響AI的開發及其實踐。當前的AI道德委員會甚至沒有能力快速、成規模地調整AI發展的具體方向。

只有確保以公民為中心的價值觀與原則對AI解決方案的設計與開發加以引導,才有可能對AI領域施加有效且可持續的正確影響。

以往,“公民體驗”僅被劃為純公共服務領域,但僅此而已。今天,我們需要一種更全面、更多以公民為中心的方法,并據此構建起面向每一位AI設計師及開發人員的通用工具箱。

具體而言,我們需要這種秉持以公民為中心的思維與行動方針的AI企業、數據科學家與設計師。我們還需要公民體驗專家,將對社會的認知納入產品構思、設計以及開發的核心環節當中。

如何構思AI的公民體驗設計問題

那么,我們怎樣才能為公民體驗設計的可持續性實踐,創建起一套能夠真正將個人視為公民、并融入廣泛社會結構的AI解決方案框架?

首先,公民體驗設計需要跨學科努力,包括將社會科學、數據科學與設計思路結合起來。公民體驗設計還對數據素養與算法素養提出了更高要求,包括要求了解不同數據中的利弊、評估應用程序以及不同算法帶來的潛在影響。而這項目標,必須通過多學科交叉形式實現。

其次,公民體驗設計應幫助設計師及開發人員將個人視為公民用戶與公民消費者。公民體驗設計還需要提供具體工具,幫助開發者將個人視為真實的個體,幫助企業在更廣泛的社會背景下評估自身產品決策。這些工具還有望在用戶體驗與客戶體驗層面,提供更深刻的數據科學設計與實踐洞見。

第三,公民體驗設計應該覆蓋到產品設計與開發的所有要素,包括用例與目標設置、應用指標與用戶界面設計、數據管道及AI技術選擇、乃至用戶研究與分析等等。

第四,必須與公民一起制定公民體驗設計的基本原則。這些共同建立的實踐將帶來新的洞見,并將公民作為活躍力量引入這場AI變革的核心當中。

公民體驗設計的基本原則

一切均始于此:AI從業者首先應承認個人的身份,即成熟公民的身份,并相應予以尊重與關照。永遠不應脫離社會背景,在孤立產品或平臺當中考慮AI解決方案。

下面來看關于迭代的更多具體建議:

AI系統的設計與開發應強調維護公民權利。算法應以負責任且透明的方式創建完成,且AI系統不應根據公民的身份對其做出區別對待、或損害其豁免權或完整性。

以安全、負責的方式處理公民數據。AI系統不應以不必要的方式收集個人數據,或在未經明確同意的前提下使用個人數據。同樣,當公民與AI系統交互或受后者影響時,必須明確向公民發出通報。AI系統絕不應愚弄或操縱公民,例如通過偽裝為人類、或誘導不健康行為的方式在推薦系統中愚弄或操縱公民。

在從公民角度出發考量AI系統時,必須對數據的個人控制視為數字產品需要遵循的基本特征。將公民隱私權設定為最核心的權益,即可保證基于AI的監管系統不以任何不必要的方式觸及這部分信息。

AI系統不應促進任何有違現有法律或其他公民權利的行為。AI系統必須尊重現有法規與公序良俗。簡而言之,AI設計人員、開發人員或其AI解決方案不應獨立做出好壞、公平、適度或合法等層面的判斷。

公民體驗設計,要求從業者與來自不同領域的專家保持持續對話,結合社會背景主動審視其解決方案。AI解決方案目前已被廣泛認定為與人類社會無縫整合的社會性技術系統,因此必須得到持續監控、評估、審計與迭代,盡可能緩解潛在的問題或利益沖突。

AI系統還應允許人們自主學習關于AI技術的使用及效應。當個人被視為成熟公民時,即應對自己使用的AI解決方案負責。為此,民眾需要培養新的公民技能,包括良好的數據素養、算法素養以及數字媒體素養。這一點需要公民與AI從業者的共同努力。例如,公民應能夠以易于訪問的方式觀察自身數據足跡是否暴露于算法系統當中。

這種教育上的透明性,有助于人們了解AI系統及其創建者的動機與意圖,幫助公民與AI開發者之間建立起信任。以公民為中心、且具有社會意識的設計,可以及時向公民盡通報義務,同時增強行為與安全機制,例如使有害信息更易于檢測、緩解甚至預防。

建立原則

在理想情況下,將公民體驗設計引入AI應該成為一項前提性原則,據此指導AI解決方案的設計與開發,而非做出回顧性的評估或系統內容迭代。

縱觀全局,很明顯,公民體驗設計將為AI創新帶來新的機會,確保現有乃至未來的解決方案不能忽視個人用戶作為公民的這一角色定位。

構建及迭代公民體驗設計應該成為一項核心原則,而這條漫長道路的起點就在當下。

    无码自拍