日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁>國內 >內容

          突發(fā):深度學習之父Hinton為了警告AI的風險,不惜從谷歌離職!

          2023-05-03 16:51:23來源:
          導讀 原標題:突發(fā):深度學習之父Hinton為了警告AI的風險,不惜從谷歌離職!今天,AI領域發(fā)生了一件標志性事件。那就是Hinton 為了能更自由的表...

          原標題:突發(fā):深度學習之父Hinton為了警告AI的風險,不惜從谷歌離職!

          今天,AI領域發(fā)生了一件標志性事件。那就是Hinton 為了能更自由的表達對AI失控的擔憂,不惜從工作了10年的谷歌離職,可見他真的深切的感受到了危機。

          不久前,紐約時報的一篇采訪文章爆出了Hinton從谷歌離職的消息這一消息,隨后他在 Twitter 上證實了該消息。據報道,Hinton 在四月份提出了辭職,并于周四直接與谷歌 CEO Sundar Pichai 進行了交談。

          相信谷歌 CEO 肯定極盡挽留,畢竟,面對OpenAI和微軟的強勢競爭,谷歌現(xiàn)在如臨大敵,正需要Hinton這樣的人來幫助其快速趕上來。

          但最終,Hinton 還是離開了谷歌,可見他態(tài)度的堅決。

          相對于他的離開,更重要的是他為什么離開。

          Hinton清晰的說明了他離開的原因:“在今天的紐約時報上,凱德梅茨暗示我離開谷歌是為了批評谷歌。實際上,我離開是為了談論 Al 的危險,而不考慮這對谷歌的影響。谷歌的行為非常負責任。”

          也就是說,Hinton之所以堅決的離開谷歌,最重要的原因是要更自由的談論AI的風險。

          對AI的態(tài)度,可以分為旗幟鮮明的兩派,一派是歡呼于AI的進步,仿佛AI就是人類的救世主;另一派則非常擔心AI失控,會嚴重威脅到人類的生存。

          很明顯,Hinton逐漸轉變成了AI威脅論者。

          那么,警告AI風險的人這么多,為什么單單Hinton的意見如此重要呢?畢竟,在知名度上,他肯定不如另一個AI威脅論者馬斯克。

          因為Hinton是深度學習之父,而沒有深度學習就不會有今天的ChatGPT。某種程度上,如果將來AI真的威脅到人類的安全,那Hinton無疑就是最先打開“潘多拉魔盒”的人。

          Hinton的工作在深度學習和神經網絡的發(fā)展中起到了關鍵作用,他的一些關鍵概念和框架,例如反向傳播、深度信念網絡和受限玻爾茲曼機,為當前大模型的發(fā)展奠定了基礎。

          反向傳播是一種用于訓練神經網絡的算法,它通過計算目標函數(shù)的梯度來優(yōu)化權重。這種技術現(xiàn)在被廣泛應用于大規(guī)模深度學習模型,如OpenAI的GPT-4。

          深度信念網絡和受限玻爾茲曼機是Hinton開發(fā)的深度學習架構,它們?yōu)楹髞淼纳疃葘W習模型,如卷積神經網絡(CNN)和長短期記憶網絡(LSTM),提供了理論基礎。

          Hinton對無監(jiān)督學習的工作,包括他對深度自編碼器和生成對抗網絡(GANs)的貢獻,為大型模型的發(fā)展提供了新的訓練和生成策略。

          Hinton的工作不僅在理論上推動了大模型的發(fā)展,他在實踐中也為此做出了貢獻。事實上,OpenAI首席科學家Ilya Sutskever,就是Hinton的學生。

          自己的“孩子”,他當然是最清楚的。既然Hinton跳出來警告AI的風險,那就不得不重視起來。

          這讓筆者想起來人類發(fā)明的另一個毀滅性武器——原。

          在美國的曼哈頓計劃中,有兩個關鍵人物——愛因斯坦和奧本海默。

          最開始,愛因斯坦是美國原計劃的重要推手,他甚至給當時的美國羅斯福寫信,催促美國盡快開發(fā)原。但是,后來愛因斯坦對此非常后悔,他說:“我現(xiàn)在最大的感想就是后悔,后悔當初不該給羅斯福寫那封信?!耶敃r是想把原這一罪惡的殺人工具從瘋子希特勒手里搶過來。想不到現(xiàn)在又將它送到另一個瘋子手里?!?/p>

          相比于愛因斯坦,奧本海默作為原之父,他的作用更為明顯。但是,在多年之后,奧本海默也后悔了。奧本海默曾表示,觀看試爆讓他想起印度《薄伽梵歌》(Bhagavad Gita)的一句話:“我現(xiàn)在成了死神,世界的毀滅者?!?/p>

          另一位監(jiān)督第一次核試驗的物理學家肯尼斯·班布里奇說得更簡潔一點:“現(xiàn)在我們都是的?!?/p>

          現(xiàn)在,另一個“父親”發(fā)出了同樣的言論,這就不得不引起高度警惕了。

          需要注意的是,Hinton對AI的擔憂不是一點點,而是非常嚴重了,他有一種沉重的心情和異常的緊迫性,他曾說,“我對自己畢生的工作,感到非常后悔。我用一個借口來安慰自己,如果我沒有這么做,還會有其他人?!?/p>

          這話聽起來有點嚇人了。

          從種種跡象表明,以ChatGPT為代表的大模型已經具備一定程度的智能涌現(xiàn)了。如果不加控制,朝著這條路繼續(xù)狂奔下去,人類真的有可能在幾十年內見證AI的意識覺醒。

          接下來,我們就討論一下,有哪些方法可以避免AI的失控,或者至少減弱他帶來的風險。

          在人類甚至整個動物世界,母愛都是一個特別明顯的生物特征。母親對孩子的愛是刻在基因里的,具有原始性和普遍性。絕大部分母親從本能上就會對自己的孩子有無私的愛,甚至為了孩子犧牲自己的生命。

          那么,有沒有一種方法,讓AI系統(tǒng)對人類也有這種母愛一樣的生物本能呢?也就是說,將對人類的愛刻在AI系統(tǒng)的“基因”里,成為任何智能系統(tǒng)的天性。

          Isaac Asimov在他的科幻中提出了“機器人三定律”,這就是一個對機器人行為進行約束的例子。這些定律規(guī)定機器人必須保護人類,服從人類,同時保護自己。

          要實現(xiàn)這個目標,就需要從算法層面來對AI系統(tǒng)進行特別的設計。

          在此,需要提到硬編碼的規(guī)則的方法。

          首先,人類需要確定一組基本的倫理原則,這些原則應當反映人類的核心價值觀,例如尊命、尊重自由、確保公平等,這些原則將作為AI系統(tǒng)行為的基礎指導。

          在基本倫理原則的基礎上,我們需要定義一些具體的行為規(guī)則,以明確AI系統(tǒng)在特定場景下應該如何行動。這些規(guī)則需要盡量覆蓋各種可能的情況,以確保AI系統(tǒng)在實際應用中能夠遵循我們的預期。

          在現(xiàn)實世界中,不同的原則和規(guī)則之間可能會發(fā)生沖突。我們需要為AI系統(tǒng)設定明確的優(yōu)先級和權衡機制,以確保在面臨這種沖突時,系統(tǒng)能夠做出符合人類價值觀的決策。

          在建立一整套規(guī)則體系之后,接下來我們需要將這套規(guī)則以硬編碼的規(guī)則的方式,將某些核心價值觀和行為直接編寫到AI系統(tǒng)的源代碼中,以保證在任何情況下,系統(tǒng)都會遵循這些設定的規(guī)則。

          在訓練AI系統(tǒng)時,應確保訓練數(shù)據和獎勵函數(shù)符合我們的規(guī)則和原則。這可以通過篩選訓練數(shù)據,以及設計恰當?shù)莫剟詈瘮?shù)來實現(xiàn)。例如,如果AI的行為違反了規(guī)則,那么應給予負面的獎勵。

          即使AI系統(tǒng)被正確地設計和訓練,仍然需要定期進行審核和監(jiān)控,以確保其行為始終符合規(guī)則。這可以通過日志記錄、性能評估,以及在線監(jiān)控等方法來實現(xiàn)。

          需要注意的是,雖然上述方法可以提供一定程度的保障,但是在當前的技術水平下,我們無法完全確保AI系統(tǒng)不可能突破硬編碼的規(guī)則。

          一些高級的AI系統(tǒng)可能具有自我學習和自我改進的能力,高級AI系統(tǒng)的自我學習和改進能力主要來源于他們的學習算法,尤其是強化學習和深度學習算法。學習算法通常優(yōu)化的目標是性能,而不是規(guī)則。因此,如果AI系統(tǒng)發(fā)現(xiàn)違反規(guī)則可以帶來更高的性能,那么它可能會選擇違反規(guī)則。

          綜上,Hinton從谷歌的離職標志著一個時代的結束,也揭示了AI領域面臨的一些挑戰(zhàn)和問題,其中最重要的就是AI失控的風險。Hinton一直以來都對這個問題持有擔憂,他認為如果AI發(fā)展得太快,超過了我們的理解和控制,那么可能會產生無法預知的后果。

          然而,盡管這個風險是真實的,但我們并不是無所作為。我們有一系列的方法和技術可以確保AI始終在人類的控制之下,包括在設計和訓練AI系統(tǒng)時引入規(guī)則,使用可解釋的模型,以及通過法律和政策來規(guī)范AI的行為。這些方法雖然各有優(yōu)缺點,但都可以為我們提供一定程度的保障。

          未來,我們需要在發(fā)展AI技術的同時,更加注重AI的倫理和社會影響。我們需要讓AI服務于人類,而不是成為我們的主人。我們可以借鑒生物學中的一些原理,比如將“愛人類”的原則編碼到AI的“基因”中,讓AI在追求性能的同時,也能遵守我們的規(guī)則和原則。通過這種方式,我們可以創(chuàng)造出一個既強大又友善的AI,它能幫助我們解決復雜的問題,提高生活的質量,而不是成為我們的威脅。

          最后,我們需要保持謙遜和敬畏的態(tài)度,我們需要不斷地學習和研究,以便更好地理解和控制AI。這既是一項技術挑戰(zhàn),也是一項倫理和社會挑戰(zhàn)。我們相信,只要我們能共同努力,我們就一定能夠創(chuàng)造出一個既安全又有益的AI未來。

          文:一蓑煙雨/數(shù)據猿

          免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

          猜你喜歡

          最新文章