日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁>企業(yè)要聞 >內(nèi)容

          全國正在爆發(fā)?10分鐘被AI騙走430萬!

          2023-05-23 16:39:04來源:
          導讀 中國基金報 泰勒今年是AI技術爆發(fā)的大年,全球很多公司都推出了類似ChatGPT的產(chǎn)品,此外還有一些視頻生成、圖片生成的AI產(chǎn)品,在某些方...


          中國基金報 泰勒

          今年是AI技術爆發(fā)的大年,全球很多公司都推出了類似ChatGPT的產(chǎn)品,此外還有一些視頻生成、圖片生成的AI產(chǎn)品,在某些方面已經(jīng)足以替代人類。

          然而,又被詐騙分子利用了。

          AI詐騙正在全國爆發(fā)!一公司老板10分鐘被AI詐騙430萬

          近日,包頭警方發(fā)布一起利用人工智能(AI)實施電信詐騙的典型案例,福州市某科技公司法人代表郭先生10分鐘內(nèi)被騙430萬元。


          5月8日,包頭市公安局電信網(wǎng)絡犯罪偵查局發(fā)布一起使用智能AI技術進行電信詐騙的案件,警銀聯(lián)動成功緊急止付涉嫌電信詐騙資金330多萬元。


          4月20日11時40分左右,福州市某科技公司法人代表郭先生的好友突然通過微信視頻聯(lián)系到他,兩人經(jīng)過短暫聊天后,好友告訴郭先生,自己的朋友在外地投標,需要430萬元保證金,且需要公對公賬戶過賬,所以想要借用郭先生公司的賬戶走一下賬。好友向郭先生要了銀行,聲稱已經(jīng)把錢打到郭先生的賬戶上,還把銀行轉賬底單的截圖通過微信發(fā)給了郭先生?;谝曨l聊天信任的前提下,郭先生沒有核實錢是否到賬,于11時49分先后分兩筆把430萬元給對方打了過去。錢款轉賬后,郭先生給好友微信發(fā)了一條消息,稱事情已經(jīng)辦妥。但讓他沒想到的是,好友回過來的消息竟然是一個問號。

          郭先生撥打好友電話,對方說沒有這回事,他這才意識到竟然遇上了“高端”騙局,對方通過智能AI換臉技術,佯裝成好友對他實施了詐騙。

          “從頭到尾都沒有和我提借錢的事情,就說會先把錢給我打過來,再讓我給他朋友賬戶轉過去,而且當時是給我打了視頻的,我在視頻中也確認了面孔和聲音,所以才放松了戒備”,郭先生說。

          4月20日12時21分,包頭市電信網(wǎng)絡犯罪偵查局接到福建省福州市公安局刑偵支隊的外協(xié)請求,稱福建省一知名民營企業(yè)負責人被騙走430萬元,而涉案的銀行卡為包頭市蒙商銀行對公賬戶,希望包頭警方能夠幫忙進行緊急止付。

          包頭市公安局電信網(wǎng)絡犯罪偵查局立即啟動“包頭市警銀聯(lián)動綠色查詢機制”,當班民警以最快速度完成核查、報審程序,第一時間將涉案卡的信息通報至蒙商銀行相關部門。在銀行的全力協(xié)助下,僅用時10分鐘,就將該詐騙賬戶內(nèi)的336.84萬元被騙資金成功攔截。同時,向福州市公安局警方提供了剩余款項93.16萬元資金流出信息,為深入突破該案剩余資金查找提供了突破方向。目前,福建警方與包頭警方對此資金正在全力追繳當中。

          警方提示:針對花樣翻新的智能AI詐騙,公眾要提高防范意識,不輕易提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻等;網(wǎng)絡轉賬前要通過電話等多種溝通渠道核驗對方身份,一旦發(fā)現(xiàn)風險,及時報警求助。如果有人自稱“熟人”、“領導”通過社交軟件、短信以各種理由誘導你匯款,務必通過電話、見面等途徑核實確認,不要未經(jīng)核實隨意轉賬匯款,不要輕易透露自己的身份證、銀行卡、驗證碼等信息。如不慎被騙或遇可疑情形,請注意保護證據(jù)立即撥打110報警。

          AI技術改變詐騙,詐騙成功率接近100%

          AI技術發(fā)展迅速,最近爆火的AI換臉,只需要提供一張帶臉的照片,就可以把自己置換成視頻、電視劇中的男(女)主角,而且擬真度非常高,毫無違和感。

          有人把鹿晗的臉置換到劉亦菲扮演的“小龍女”角色中,就是下面這個效果。如果不是事先看過《神雕俠侶》,還以為就是本人呢。


          再來看看AI詐騙常用手法

          第一種: 聲音合成

          騙子通過騷擾電話錄音等來提取某人聲音,獲取素材后進行聲音合成,從而可以用偽造的聲音騙過對方。

          某公司財務小王接到領導電話,要求立刻給供應商轉款2萬元,并將轉賬信息以郵件形式發(fā)送,轉款理由是避免繳納滯納金。由于老板的口音十分逼真,小王信以為真,在1小時內(nèi)轉款完成,后發(fā)現(xiàn)被騙。


          第二種:AI換臉

          人臉效果更易取得對方信任,騙子用AI技術換臉,可以偽裝成任何人,再通過視頻方式進行信息確認,真是防不勝防!

          騙子首先分析公眾發(fā)布在網(wǎng)上的各類信息,根據(jù)所要實施的騙術,通過AI技術篩選目標人群。在視頻通話中利用AI換臉,騙取信任。

          小李的大學同學通過QQ跟她借錢。對方打過來一段四五秒的視頻電話,小李看到確實是本人,便放心轉賬3000元。然而,她在第二次轉賬時感覺異常,便再次撥通對方電話,這才得知同學的賬號被盜,遂報案。警方判斷,那段視頻很有可能是被人換了臉。


          第三種:轉發(fā)微信語音

          騙子在盜取微信號后,便向其好友“借錢”,為取得對方的信任,他們會轉發(fā)之前的語音,進而騙取錢款。

          盡管微信沒有語音轉發(fā)功能,但他們通過提取語音文件或安裝非官方版本(插件),實現(xiàn)語音轉發(fā)。

          免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

          猜你喜歡

          最新文章