日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁>國內(nèi) >內(nèi)容

          IBM Think 2019核心議題 如何打造可信人工智能

          2019-07-01 14:07:34來源:億歐
          導(dǎo)讀 IBM董事長、總裁和首席執(zhí)行官Ginni Rometty的主旨演講中也重點提到了可信人工智能,Rometty還把對技術(shù)的信任作為她整個主題演講的落腳點,

          IBM董事長、總裁和首席執(zhí)行官Ginni Rometty的主旨演講中也重點提到了可信人工智能,Rometty還把對技術(shù)的信任作為她整個主題演講的落腳點,她認為信任是所有偉大技術(shù)的先決條件,是新技術(shù)繁榮和發(fā)展的基礎(chǔ),也是這個時代最大的不同之處。在2019年2月12日到15日于美國舊金山舉辦的IBM Think 2019大會上,可信人工智能成為核心議題之一兩個月前,歐盟剛于2018年12月18日公布了《可信AI的道德指南草案》,并將于2019年3月推出最終版本?!吨改喜莅浮分赋鋈斯ぶ悄蹵I是當(dāng)代最重要的轉(zhuǎn)型力量之一,也注定將改變社會的組成。但要正確的發(fā)展人工智能,就必須要提出可信賴的人工智能,“可信賴的人工智能是‘北極星’”。人工智能的未來在于信任,如果想要驅(qū)動業(yè)務(wù)成功,人工智能就不能隱藏在“黑盒子”中。

          IBM研究院發(fā)布2019預(yù)測:2019年,值得信賴的人工智能將成為焦點

          2018年底,。在IBM Think 2019上,IBM研究院專場介紹了在推進人工智能、擴展人工智能和構(gòu)建可信人工智能方面的工作,并提出了“AI就是新IT”的觀點。實際上隨著人工智能全面嵌入信息基礎(chǔ)架構(gòu),人工智能與信息基礎(chǔ)架構(gòu)之間的界線已經(jīng)越來越模糊。打造可信人工智能,就是構(gòu)建可信的信息基礎(chǔ)架構(gòu),進而為未來的數(shù)字經(jīng)濟打下堅實的基礎(chǔ)。

          激活人工智能的網(wǎng)絡(luò)效應(yīng)

          MIT數(shù)字經(jīng)濟研究計劃(MIT INITIATIVE ON THE DIGITAL ECONOMY,MIT IDE)是MIT Sloan管理學(xué)院發(fā)起的研究項目,旨在研究如何在數(shù)字經(jīng)濟時代發(fā)展繁榮。MIT教授MICHAEL SCHRAGE在2016年發(fā)起了一個IDE研究方向:網(wǎng)絡(luò)效應(yīng),即亞馬遜、阿里、Google、Apple、Facebook、Uber、Airbnb等平臺的真正成功之道。今天,AI就是下一個平臺。

          什么是“網(wǎng)絡(luò)效應(yīng)”?簡單理解:用戶的參與越多,就能迅速產(chǎn)生更高的價值和有價值的體驗;創(chuàng)造的價值越多,就會產(chǎn)生更多的用戶以及創(chuàng)新的用途。對于AI來說,“網(wǎng)絡(luò)效應(yīng)”更加明顯。AI與谷歌搜索一樣,使用的人越多其性能就越好。但相對谷歌搜索來說,AI面臨的一大問題就是可信任性。由于今天的人工智能更多是以開源軟件的形式為各企業(yè)、政府和組織機構(gòu)所使用,而人工智能算法本身也是“黑盒子”,因此要引發(fā)AI的“網(wǎng)絡(luò)效應(yīng)”還欠缺信任機制。

          Google、Facebook、Amazon、IBM以及Microsoft在2016年發(fā)起成立了Partnership on AI。作為一家非贏利性組織,Partnership on AI旨在匯集全球不同的聲音,以保障AI在未來能夠安全、透明、合理地發(fā)展,讓世界更好地理解AI的影響。截止2018年底,Partnership on AI共有來自13個國家的80余家成員,除創(chuàng)始成員外還包括蘋果、Intel、埃森哲、nvidia、三星、百度等巨頭以及超過50家非贏利性組織成員。

          作為Partnership on AI的創(chuàng)始成員之一,IBM長期以來一直關(guān)注人工智能的安全、透明、可信賴以及合理發(fā)展。通過積極的呼吁以及促進各方對話,IBM研究院對2019年的人工智能預(yù)測之一為:2018年,許多組織通過建立道德咨詢委員會來應(yīng)對數(shù)據(jù)泄露和消費者隱私問題,增加了對“信任支柱”(算法公平性、可解釋性、穩(wěn)健性、透明度)的研究投入,以及為社會福利部署AI做出了更多的努力;在2019年,將看到這些努力會成為公司如何構(gòu)建、訓(xùn)練和部署AI技術(shù)的核心。

          構(gòu)建可信的人工智能

          IBM特別注重將對AI的信任研究轉(zhuǎn)化為實際產(chǎn)品和平臺,同時強調(diào)鼓勵技術(shù)團隊的多樣性和包容性,以確保充分的聲音和觀點指導(dǎo)技術(shù)進步。

          當(dāng)前,對于AI可能存在的安全、透明、偏見等普遍性問題,很容易造成人們對于AI的不信任。IBM認為,這在很大程度上是因為所創(chuàng)建和被開發(fā)出來的AI服務(wù),缺乏相應(yīng)的開發(fā)說明。因為基于深度神經(jīng)網(wǎng)絡(luò)的AI算法,其算法本身是一個“黑盒子”,難以用數(shù)學(xué)的方式說明算法到底是怎么來的、如何運行的以及結(jié)果能否確定等,因此IBM研究院提出了Factsheets for AI services(AI服務(wù)的說明)。

          就像營養(yǎng)藥的藥品說明一樣,AI服務(wù)的說明文檔十分重要,但也需要遵循一定的文檔規(guī)格,例如需要說明AI服務(wù)的算法是如何創(chuàng)建、測試、訓(xùn)練、部署和評估的。IBM認為,對于AI服務(wù)說明文檔的標(biāo)準(zhǔn)化和及時發(fā)布,有助于業(yè)界建立對于AI服務(wù)的信任。IBM研究院向2019年ACM美國計算機協(xié)會FAT*專業(yè)會議(專注于算法的公平、可靠和透明主題)提交了論文,論述了AI供應(yīng)商應(yīng)該如何提供一致性說明來增強對AI服務(wù)的信任,并提供了初步的建議,包括系統(tǒng)運行、訓(xùn)練數(shù)據(jù)、底層算法、部署測試和結(jié)果、性能指標(biāo)、公平和可靠性檢查、目標(biāo)用例、維護及再訓(xùn)練等內(nèi)容。

          IBM認為一個可信任的AI系統(tǒng),需要遵循幾個基礎(chǔ)原則:公平性(Fairness),即AI系統(tǒng)應(yīng)該采用不帶偏見的數(shù)據(jù)集和模型,從而避免對于特定群體的不公平;健壯性(Robustness),即AI系統(tǒng)應(yīng)該安全和可靠,不會被篡改,也不會受被“污染”的訓(xùn)練數(shù)據(jù)集影響;可解釋性(Explainability),即AI系統(tǒng)所提供的決策或建議,應(yīng)該能夠被用戶和開發(fā)者所理解;可追蹤(Lineage),即AI系統(tǒng)的開發(fā)、部署、維護等可被追蹤,能夠在生命周期范圍內(nèi)被審計。

          除了提出“AI服務(wù)說明”文檔的基礎(chǔ)原則、初始規(guī)格及內(nèi)容建議外,IBM認為后續(xù)值得的研究包括如何把“AI服務(wù)說明文檔”自動化的嵌入AI軟件的構(gòu)建、開發(fā)和運行環(huán)境中,這樣就不需要人工撰寫這些說明文檔了。此外,“AI服務(wù)說明文檔”還可自動化的發(fā)布到基于區(qū)塊鏈的網(wǎng)絡(luò)上,這樣“AI服務(wù)說明文檔”就不可被篡改。

          當(dāng)然,IBM在可信任的AI系統(tǒng)方面,還進行了很多研究,其基本的思想就是通過算法和軟件,自動化的在AI系統(tǒng)里構(gòu)建“信任”。例如,IBM在2018年9月發(fā)布了AI Fairness 360(AIF360)開源工具,專門用于檢查數(shù)據(jù)集、機器學(xué)習(xí)模型、最新的算法等是否具有偏見。初步發(fā)布的AIF360 Python包帶有9種算法,由算法公平性研究社區(qū)所開發(fā),用以減輕算法中的偏見。

          因果建模讓人工智能更加深刻

          目前基于深度神經(jīng)網(wǎng)絡(luò)算法的AI系統(tǒng),其原理主要是相關(guān)性。也就是訓(xùn)練出一個神經(jīng)元模型,可以模擬一個數(shù)據(jù)集的軌跡,這在很大程度上是建立了兩個系統(tǒng)之間的相關(guān)性。通常這種算法在處理較為確定的問題時比較容易成功。例如模擬和預(yù)測圖像、語言、語音等,因為圖像、語言和語音相對固定,比如一種語言往往只有幾種到幾十種發(fā)音、幾千到幾萬詞匯等。

          但是在現(xiàn)實的商業(yè)應(yīng)用中,人們期望用AI算法解決更多的開放性問題,就像人腦可以處理很多未知或缺乏經(jīng)驗的問題,因此人們也期望建立更加通用的人工智能系統(tǒng)。這個時候,就需要引入人腦所具備的歸納推理能力,也就是建立數(shù)據(jù)集之間的因果關(guān)系,而不僅僅是相關(guān)性。在IBM研究院的2019 AI預(yù)測中提到:對現(xiàn)實世界中因果結(jié)構(gòu)的直覺,是人們?nèi)粘P袨楹团袛嗖豢苫蛉钡?,但今天大部分人工智能方法基本上都缺乏對因果關(guān)系的深刻應(yīng)用。

          因果推理方法,使AI開發(fā)者能夠從數(shù)據(jù)中推斷出因果結(jié)構(gòu),有效地選擇干預(yù)措施來檢驗推定的因果關(guān)系,并通過利用因果結(jié)構(gòu)的知識做出更好的決策。在2019年,IBM期望因果建模技術(shù)成為人工智能世界的核心技術(shù)。

          因果建模技術(shù)(Casual Inference)是歸納推理算法(Inductive reasoning)的一個部分,在過去20年得到了迅速的發(fā)展。歸納推理算法是研究如何從局部推理到全局、從過去推理到未來、從特例推理到常規(guī)、從可被觀察現(xiàn)象推理到未被觀察現(xiàn)象等。例如,從聽到彈鋼琴音樂的聲音,推理出有人在彈奏彈琴。因果建模技術(shù)因其具有歸納推理的能力,是醫(yī)藥、流行病學(xué)和公共健康等領(lǐng)域AI系統(tǒng)的核心目標(biāo)。

          今天,因果建模技術(shù)能夠解決當(dāng)前機器學(xué)習(xí)和AI系統(tǒng)的很多問題,包括機器學(xué)習(xí)模型的解釋、機器學(xué)習(xí)過程/模型的公平性、基于數(shù)據(jù)的決策等。針對AI系統(tǒng)的解釋、公平、決策理解等,因果建模技術(shù)對AI系統(tǒng)能夠進行很好的補充。

          如今,IBM正在創(chuàng)造下一波基礎(chǔ)人工智能技術(shù),從今天的“窄”AI步入“寬”AI的新時代。“寬”AI的特點是能夠更廣泛地學(xué)習(xí)和推理,整合不同模式、不同領(lǐng)域的信息,同時更具有可解釋性、安全性、公平性、可審計性和可擴展性。未來,在“寬”AI的基礎(chǔ)上還將走向通用AI。此外,IBM研究院還AI領(lǐng)域進行了大量前瞻性研究工作,包括對量子計算的研究以及把量子計算應(yīng)用于處理AI計算任務(wù)等。

          免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

          猜你喜歡

          最新文章