AI革命就要來了。
采用機器學習這一關鍵人工智能技術的公司數(shù)量已經(jīng)超過大家的想象。隨著此項技術變得越發(fā)普及,應該把監(jiān)管和同理心擺在首要位置。
上周三,在加州拉古納尼格召開的《財富》2018年最具影響力下一代女性峰會上,情感人工智能公司Affectiva的聯(lián)合創(chuàng)始人兼首席執(zhí)行官拉娜·埃爾·卡柳比表示,在技術領域里,情商和智商同樣重要。她指出,考慮到人與技術互動的頻率以及技術在人們生活中越來越大的影響,把同理心融入技術之中很重要。
埃爾·卡柳比說,要做到這一點,途徑之一就是讓多元化團隊來進行技術開發(fā)。對此她舉了個例子:中年白人男性在創(chuàng)建和訓練面部識別AI時用的都是和他們長相類似的照片,這就意味著這樣的AI在面對有色人種女性時往往不能正常發(fā)揮作用,甚至根本派不上用場。
這要歸結到設計相關算法的團隊身上,如果不是多元化團隊,他們就不會考慮這樣的AI在戴頭巾的女性面前表現(xiàn)如何。埃爾·卡柳比說:他們只是解決了自己所知范圍內(nèi)的問題。
微軟AI部門的首席產(chǎn)品負責人納維里娜·辛格說,她在一個電子商務網(wǎng)站項目中遇到過一個完美的以同理心思維開發(fā)技術的例子。這個網(wǎng)站想讓印度消費者更方便地購買他們的商品。由于印度的識字率較低,這家公司就為不識字的用戶提供了語音轉文字功能。他們事先統(tǒng)一行動,用印度各地的方言和文化對AI進行了訓練,原因是在不同背景下,用戶說話時表達的意圖和內(nèi)容都不一樣。IBM沃森部門的客戶關系總經(jīng)理InhiChoSuh認為,意圖識別是目前AI面臨的最主要挑戰(zhàn)和機遇之一。
現(xiàn)在,機器學習的另一大焦點是監(jiān)管。與會者認為,隨著機器人和其他相關技術日臻完善,必需有法律來制約這種力量。Suh指出,應通過技術和監(jiān)管來防止不正當使用。埃爾·卡柳比則強調(diào),大學計算機科學和工程專業(yè)學生必須接受倫理教育。
辛格提出用F。A。T。E。這個縮略語來代表開發(fā)和監(jiān)管此類技術時應注意的關鍵問題。它們是公平(fairness)、負責(accountability)、透明(transparency)和倫理(ethics)。反恐技術公司Moonshot CVE的創(chuàng)始人維迪亞·拉瑪林漢姆說,雖然有很多關于AI技術的負面新聞,比如英國政治咨詢機構Cambridge Analytica非法獲取8700萬Facebook用戶數(shù)據(jù)的丑聞,但我們不能讓恐懼主導輿論。
她指出:出臺政策的動機不應該是害怕,而是應該在掌握相關知識并了解相關信息后制定政策。