IT之家 6 月 15 日消息,據(jù)路透社報道,盡管谷歌是生成式 AI 最堅定的支持者之一,但該公司正在警告員工注意聊天機(jī)器人的使用。
▲圖源 Pixabay
知情人士稱,谷歌母公司 Alphabet 已建議員工不要將其機(jī)密材料輸入給 AI 聊天機(jī)器人,同時該公司還提醒 IT 工程師避免直接使用聊天機(jī)器人生成的計算機(jī)代碼。
谷歌對此回應(yīng)稱,其聊天機(jī)器人 Bard 可以提出不受歡迎的代碼建議,但它仍然對 IT 工程師們會有所幫助。谷歌表示其目標(biāo)是對生成式 AI 的技術(shù)局限性保持足夠的透明度。
分析人士指出,這些擔(dān)憂表明谷歌希望避免生成式 AI 對公司的商業(yè)化運(yùn)作造成損害,這種謹(jǐn)慎的態(tài)度也體現(xiàn)出對生成式 AI 的使用限制正越發(fā)成為某種具有共性的企業(yè)安全標(biāo)準(zhǔn)。
IT之家此前報道,包括三星、亞馬遜、蘋果等大型科技企業(yè)對員工使用生成式 AI 都設(shè)置了一定的限制,以確保不會對公司運(yùn)營造成風(fēng)險。
支持 OpenAI 的微軟則拒絕評論是否已全面禁止員工將機(jī)密信息輸入 ChatGPT 這樣的公共 AI 應(yīng)用。但微軟消費(fèi)者業(yè)務(wù)首席營銷官 Yusuf Mehdi 曾表示,公司不希望員工使用公共聊天機(jī)器人工作是“有道理的”。
根據(jù) Fishbowl 對包括美國頂級公司員工在內(nèi)的近 12000 名受訪者的調(diào)查,截至今年 1 月,約 43% 的專業(yè)人士在工作中使用了 ChatGPT 或其他生成式 AI 工具,而且通常都沒有告訴他們的老板。