發布日期:2022-10-09 點擊率:48
關于人工智能的變革威力,人們提出了很多大膽的設想。但我們也有必要聽聽一些嚴重警告。上月,微軟研究院(Microsoft Research)首席研究員凱特?克勞福德(Kate Crawford)警告稱,如果被威權政府濫用,威力與日俱增的人工智能可能會釀成一場“法西斯夢”。
克勞福德在SXSW科技大會上表示:“就在我們看到人工智能的發展速度呈階梯型上升時,其他一些事情也在發生:極端民族主義、右翼威權主義和法西斯主義崛起。”
她表示,人工智能可能帶來龐大的數據登記冊、針對特定人口群體、濫用預測型警務以及操縱政治信仰。
克勞福德并不是唯一對強大的新技術被錯誤使用(有時以意想不到的方式)感到擔憂的人。英國政府首席科學顧問馬克?沃爾波特(Mark Walport)警告稱,在醫學和法律等涉及細膩人類判斷的領域不假思索地使用人工智能,可能帶來破壞性結果,并侵蝕公眾對這項技術的信任。
盡管人工智能有增強人類判斷的潛力,但它也可能帶來有害的偏見,并產生一種錯誤的客觀感覺。他在《連線》(Wired)雜志的一篇文章中寫道:“機器學習可能會內部化在量刑或醫療歷史中存在的所有隱性偏見,并通過它們的算法外部化。”
就像一直以來的情況那樣,識別危險仍然要比化解危險容易得多。沒有底線的政權永遠不會遵守限制人工智能使用的規定。然而,即便在正常運轉的基于法律的民主國家,框定適當的回應也很棘手。將人工智能可以做出的積極貢獻最大化,同時將其有害后果降至最低,將是我們這個時代最艱巨的公共政策挑戰之一。
首先,人工智能技術很難理解,其用途往往帶有神秘色彩。找到尚未被行業挖走、且不存在其他利益沖突的獨立專家也變得越來越難。
受到該領域類似商業軍備競賽的競爭的推動,大型科技公司一直在爭奪人工智能領域很多最優秀的學術專家。因此,很多領先研究位于私營部門,而非公共部門。
值得肯定的是,一些領先科技公司認識到了透明的必要性,盡管有些姍姍來遲。還有一連串倡議鼓勵對人工智能展開更多政策研究和公開辯論。
特斯拉汽車(Tesla Motors)創始人埃隆?馬斯克(Elon Musk)幫助創建了非盈利研究機構OpenAI,致力于以安全方式開發人工智能。
亞馬遜(Amazon)、Facebook、谷歌(Google) DeepMind、IBM、微軟(Microsoft)和蘋果(Apple)也聯合發起Partnership on AI,以啟動更多有關該技術實際應用的公開討論。
谷歌DeepMind聯合創始人、Partnership on AI聯合主席穆斯塔法?蘇萊曼(Mustafa Suleyman)表示,人工智能可以在應對我們這個時代一些最大挑戰方面發揮變革性作用。但他認為,人工智能的發展速度超過我們理解和控制這些系統的集體能力。因此,領先人工智能公司必須在對自己問責方面發揮更具創新和更主動的作用。為此,這家總部位于倫敦的公司正在嘗試可驗證的數據審計,并將很快宣布一個道德委員會的構成,該委員會將審查該公司的所有活動。
但蘇萊曼指出,我們的社會還必須設計更好的框架,指導這些技術為集體利益服務。他在接受英國《金融時報》Tech Tonic播客的采訪時表示:“我們必須能夠控制這些系統,使他們在我們希望的時間做我們想做的事,而不會自說自話。”
一些觀察人士表示,做到這點的最佳方法是調整我們的法律制度,確保人工智能系統可以向公眾“解釋”。從原則上說,這聽上去很簡單,但實際做起來可能極為復雜。
布魯塞爾自由大學(Free University of Brussels)法律和科技學教授米雷列?希爾德布蘭特(Mireille Hildebrandt)表示,人工智能的危險之一是我們變得過度依賴我們并不完全理解的“不用腦子的智慧”。她認為,這些算法的目的和影響必須是可測試而且在法庭上是可爭論的。她表示:“如果你無法有意義地解釋你的系統的決定,那么你就不能制造它們。”
我們將需要更多的人類智慧來應對人工智能挑戰。
下一篇: PLC、DCS、FCS三大控
上一篇: 索爾維全系列Solef?PV