日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁>科技 >內容

          CSIRO在澳大利亞未來的指導方針中促進人工智能的道德使用

          2019-04-29 11:35:13來源:
          導讀為了讓澳大利亞認識到人工智能的好處,CSIRO表示,公民必須信任AI如何被企業(yè)和政府設計,開發(fā)和使用。英聯(lián)邦科學與工業(yè)研究組織(CSIRO)強調

          為了讓澳大利亞認識到人工智能的好處,CSIRO表示,公民必須信任AI如何被企業(yè)和政府設計,開發(fā)和使用。英聯(lián)邦科學與工業(yè)研究組織(CSIRO)強調,澳大利亞需要開發(fā)人工智能(AI),并采用足夠的框架,以確保在沒有適當?shù)牡赖驴紤]的情況下對公民進行任何設置。CSI61的數(shù)字創(chuàng)新部門Data61發(fā)布了一份討論文件[PDF],人工智能:澳大利亞的道德框架,關于大規(guī)模人工智能提出的關鍵問題,尋求解決一些問題的答案,這些問題有望為政府的方法提供信息。澳大利亞的人工智能道德。

          CSIRO強調的是指導框架的八項核心原則:它產(chǎn)生凈利益,沒有損害,符合監(jiān)管和法律要求,適當考慮隱私,公平,透明和易于解釋,包含對決策提出異議的規(guī)定由機器制造,并且有責任追蹤。

          “澳大利亞的口語座右銘是對所有人來說'公平對待'。確保澳大利亞社會中許多不同群體的公平性將具有挑戰(zhàn)性,但這切入了道德AI的核心,”CSIRO寫道。

          CSIRO表示雖然透明度和人工智能是一個復雜的問題,但透明度措施的最終目標是實現(xiàn)問責制,但一些人工智能技術的內部運作并不容易解釋。

          “即使在這些情況下,仍然可以讓算法的開發(fā)者和用戶負責,”它補充說。“另一方面,當公共利益受到威脅時,人工智能的內部運作被秘密籠罩的AI'黑匣子'是不可接受的。”

          機器學習,任務自動化和機器人技術已經(jīng)廣泛應用于商業(yè)領域。這些和其他人工智能技術即將繁衍,我們將研究組織如何最好地利用它們。

          閱讀更多

          由于承認沒有一個適合所有與人工智能相關的法律和道德影響問題的解決方案,CSIRO已經(jīng)確定了九個可用于評估風險并確保合規(guī)和監(jiān)督的工具。

          這些包括影響評估,審查,風險評估,最佳做法指南,行業(yè)標準,合作,監(jiān)測和改進機制,追索機制和咨詢。

          考慮到數(shù)據(jù)在建立人工智能中的重要性,CSIRO表示,數(shù)據(jù)治理對于道德人工智能至關重要,并指出開發(fā)人工智能技術的組織需要確保他們擁有強大的數(shù)據(jù)治理基礎或其AI應用程序可能會違反隱私和/或歧視法律或存在用不恰當?shù)臄?shù)據(jù)。

          “AI提供了新功能,但這些新功能還有可能以新的方式破壞隱私法規(guī),”它寫道。“例如,如果AI可以識別匿名數(shù)據(jù),這會對數(shù)據(jù)組織可以安全使用的數(shù)據(jù)產(chǎn)生影響。”

          因此,CSIRO表示,組織應通過考慮新的支持AI的功能并確保其數(shù)據(jù)治理系統(tǒng)保持相關性,不斷建立現(xiàn)有的數(shù)據(jù)治理體系。

          CSIRO確定了與人工智能和道德相關問題的一些關鍵方法,他們說自動決策必須加權思考,并指出在自動決策系統(tǒng)的設計階段應該應用人在環(huán)的原則并明確還應考慮問責鏈。

          “對于自動化系統(tǒng)做出的決策,必須有明確的責任鏈。問:誰負責系統(tǒng)做出的決定?”它說。

          在預測人類行為方面,該框架強調,雖然人工智能不是由人類偏見驅動的,但它是由人類編程的,可能會帶來導致道德難題的風險。

          “開發(fā)人員在編制人工智能時需要特別關注弱勢群體,弱勢群體或受保護群體,”CSIRO說。“完全透明有時是不可能的,或者是不可取的(考慮隱私泄露)。但總有辦法達到一定程度的透明度。”

          人類服務和數(shù)字化轉型部長Michael Keenan發(fā)表聲明稱,政府將利用該文件的調查結果和咨詢期間收到的反饋意見制定國家人工智能道德框架。

          預計該框架將包括一系列原則和實用措施,組織和個人可以將其作為指導,以確保其設計,開發(fā)和使用AI“符合社區(qū)期望”。

          免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

          猜你喜歡

          最新文章