日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁>國內(nèi) >內(nèi)容

          IT必須注意隱性偏見采取措施盡量減少傷害

          2022-10-31 12:35:43來源:
          導(dǎo)讀 1、根據(jù)Gartner Research的數(shù)據(jù),從現(xiàn)在到2022年,85%的AI項目會因為數(shù)據(jù)、算法或負(fù)責(zé)管理它們的團隊的偏見而產(chǎn)生錯誤的結(jié)果。此外,根...

          1、根據(jù)Gartner Research的數(shù)據(jù),從現(xiàn)在到2022年,85%的AI項目會因為數(shù)據(jù)、算法或負(fù)責(zé)管理它們的團隊的偏見而產(chǎn)生錯誤的結(jié)果。此外,根據(jù)蓋洛普民意調(diào)查,85%的人目前至少使用一種人工智能設(shè)備、程序或服務(wù)。

          2、當(dāng)我在20世紀(jì)80年代末開始使用人工智能系統(tǒng)時,這種偏見已經(jīng)為我所知。事實上,人們對人工智能系統(tǒng)進行編程和教學(xué),所以那些人工智能系統(tǒng)往往帶有教它們的人的固有偏見。

          3、使用云托管昂貴的人工智能系統(tǒng)實際上讓情況變得更糟,因為能夠負(fù)擔(dān)人工智能的公司數(shù)量增加了,但擁有可靠人工智能技能的人數(shù)卻沒有以同樣的速度增加。因此,除了廣泛使用的人工智能工具的先天偏見之外,人才的缺乏也意味著在一段時間內(nèi),如何構(gòu)建知識庫的錯誤會越來越多。

          4、這些偏見是什么樣的?女性可能會發(fā)現(xiàn)自己變矮了。這是因為在人工智能的開發(fā)和教學(xué)中,男性占絕大多數(shù),所以他們有意識或無意識的偏見被編碼。例如,2015年的一項研究顯示,谷歌搜索中只有11%的“首席執(zhí)行官”圖片是女性,盡管27%的首席執(zhí)行官是女性。(雖然從谷歌中選擇很容易,但這些問題很快得到了糾正。)

          5、該公司將不得不為這些內(nèi)置的人工智能偏見買單。例如,她們需要吸收沒有貸款給足夠多的女性帶來的利潤,這些女性約占市場的55%。而且,至少是惡業(yè),最糟糕的是會讓你陷入法律的水深火熱之中。

          6、對此我還能做些什么?現(xiàn)實是,有偏見的人工智能系統(tǒng)比其他系統(tǒng)更正常。因此,IT需要認(rèn)識到偏差的存在或可能性,并采取措施限制損害。幸運的是,工具正在出現(xiàn),幫助你發(fā)現(xiàn)基于人工智能的偏見。

          免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

          猜你喜歡

          最新文章