<strong id="ctjbx"></strong>

  1. <strong id="ctjbx"></strong>
    <ruby id="ctjbx"></ruby>

    當前滾動(dòng):研究人員研發(fā)了新型語(yǔ)音DeepFake軟件 成功欺騙語(yǔ)音認證系統概率高達99%

    來(lái)源:IT之家時(shí)間:2023-07-11 14:55:29

    7 月 10 日消息,DeepFake 當下是一系列能夠生成特定人物照片、視頻及音頻的 AI 模型總稱(chēng),模型生成的各種信息相對可以輕松繞過(guò)各種企業(yè)機構的識別系統,因此也有許多黑產(chǎn)圍繞 DeepFake 而展開(kāi),當下如何更精準辨識 DeepFake 生成的內容成為難題。

    IT之家曾報道,加拿大滑鐵盧大學(xué)的兩名研究人員 AndreKassis 與 UrsHengartner 研發(fā)了新型語(yǔ)音 DeepFake 軟件,成功欺騙語(yǔ)音認證系統概率高達 99%,該軟件使用機器學(xué)習軟件,只需要 5 分鐘的人聲錄音,就可以模擬出非常逼真的人聲。

    用戶(hù)通過(guò)語(yǔ)音認證注冊之后,會(huì )要求用戶(hù)重復一個(gè)特定的短語(yǔ)或者句子。

    系統會(huì )根據用戶(hù)的聲音提取聲紋(語(yǔ)音指紋),并將其存儲在服務(wù)器。

    如果您將來(lái)嘗試進(jìn)行身份驗證,系統將提示您說(shuō)出不同的短語(yǔ),并從中提取的特征將與系統中存儲的語(yǔ)音指紋進(jìn)行比較,以確定是否應授予訪(fǎng)問(wèn)權限。

    對于這一新型語(yǔ)音 DeepFake 軟件,其他安全研究人員紛紛開(kāi)始應對,亞馬遜的研究人員嘗試檢查語(yǔ)音樣本,來(lái)判斷樣本的真實(shí)性。

    而 Kassis 與 Hengartner 打造出一個(gè)方法來(lái)繞過(guò)上述亞馬遜的機制,該方法可辨識出合成語(yǔ)音中的標記,并自動(dòng)移除這些具有 AI 特征的段落,令系統無(wú)法區分。

    另一方面,專(zhuān)門(mén)開(kāi)發(fā)語(yǔ)音身份認證安全機制的 Pindrop 則認為這一機制并不穩妥,即“雖然攻擊方可以移除生成的語(yǔ)音片段中具有 AI 特征的段落,但防守方可以同時(shí)從多角度來(lái)判斷音頻文段的真實(shí)性,例如檢測 IP 地址、要求提供特定的語(yǔ)音信息等”,因此依然可以檢測出使用 DeepFake 的攻擊者。

    但研究人員 Pindrop 同時(shí)指出,現有用來(lái)對抗 Deekfake 語(yǔ)音的系統有許多缺陷,打造安全系統的唯一方式是像黑客一樣思考。他同時(shí)建議那些只仰賴(lài)語(yǔ)音進(jìn)行身份認證的企業(yè),應該部署額外的認證措施,以防止企業(yè)受到詐騙,導致經(jīng)濟損失。

    標簽:

    責任編輯:FD31
    上一篇:2023停息掛賬最新規定與政策解讀 停息掛賬哪年出的政策?-天天快播報
    下一篇:最后一頁(yè)

    精彩圖集(熱圖)

    熱點(diǎn)圖集

    最近更新

    信用中國

    • 信用信息
    • 行政許可和行政處罰
    • 網(wǎng)站文章

    久爱免费观看在线精品_亚洲综合一区二区三区_最新国产国模无码视频在线_中文字幕无码精品亚洲资源网久久

      <strong id="ctjbx"></strong>

    1. <strong id="ctjbx"></strong>
      <ruby id="ctjbx"></ruby>