• <tbody id="844xo"><nobr id="844xo"></nobr></tbody>

      <bdo id="844xo"></bdo>
      <div id="844xo"><optgroup id="844xo"></optgroup></div><div id="844xo"></div>
      <nobr id="844xo"><optgroup id="844xo"></optgroup></nobr>

      <nobr id="844xo"><dfn id="844xo"></dfn></nobr><progress id="844xo"><div id="844xo"><optgroup id="844xo"></optgroup></div></progress>

      新聞中心

      EEPW首頁 > 智能計算 > 業界動態 > “AI假臉王”泛濫,人臉識別還安全嗎?

      “AI假臉王”泛濫,人臉識別還安全嗎?

      作者:時間:2019-03-08來源:網絡收藏
      編者按:在正式進入人臉識別技術這個話題之前,我們先從整容手術的奇特歷史講起,沿著這個思維,一起探討人臉識別的前世今生。

        在正式進入技術這個話題之前,我們先從整容手術的奇特歷史講起,沿著這個思維,一起探討的前世今生。

      本文引用地址:http://www.dxpaa.com/article/201903/398318.htm

        仿真·易容術——整容手術

        整容手術雖然是一種新型手術學科,但也有近百年的歷史。尤其是二戰時期,軸心國與同盟國的諜報部門、特工部門為了搞敵后搞破襲戰,也有使用易容術的方法來讓己方特工人員冒充敵方人員實施破壞。

        鑒于那個時代還未出現計算機和技術,易容后的特工容易蒙混過關,只需要拿著偽造的證件和沖洗暗房制作的舊式“PS”照片,利用相似的長相,就可以輕易糊弄敵人。

        在最近上映的俄羅斯紀錄片《破襲者》第一集當中,講述了蘇聯內務人民委員會(NKVD)特工尼古拉·伊萬諾維奇·庫茲涅佐夫冒充成德軍中尉保羅·威廉·西爾貝特混入德占區搞暗殺破壞的故事。

        影片中展現的蘇聯選拔特工的方法代表了那個時代的特點,無外乎就是長相相似,易容手術難度低,可以熟練掌握敵國語言的人。被千挑萬選出來的特工,靠著一張臉便可以如入無人之境,穿梭于敵后。那是一個易容術稱霸沒有人臉識別技術的時代。

        今天有了人臉識別技術,并且識別能力日趨增強,網上已經能看到不少能夠識別整容手術的人臉識別成功案例,但是“道高一尺,魔高一丈”的過關騙術也不在少數。畢竟,臉是一直露在外面的,可以任你涂抹和修改。

        作為人工智能技術的一個代表,人臉識別技術今天已經出現在大量應用場景中。隨著這項科技的應用逐步增多,圍繞人臉識別技術的種種質疑和爭議也多了起來。

        下面僅演示兩個例子,來探討一下人臉識別技術的現實困境。

        全息投影·易容術——復活的鄧麗君

        鄧麗君逝世23周年之際,日本節目《金SMA》利用全息投影技術,使用全息投影復活了鄧麗君。在節目的畫面中,人們可以在360度全景攝影棚中看到鄧麗君1986年在《日本作曲大賞》演唱《我只在乎你》日文版的經典片段。已經去世23年的鄧麗君“復活”,栩栩如生,即便是攝像機隨意調換角度,靠近鄧麗君的投影,連著臺下觀眾真人一起拍攝,也讓人難辨真假。

        全息投影技術用于懷念故去的親人,用于喚起一代粉絲對歌星的記憶,是一件很有意義的事,它可以為人類保存更多優秀的文化元素,讓文藝之星或偉大人物“永垂不朽”。

        換個角度,在此筆者開了個腦洞,如果全息投影被應用于移動終端設備上,那有歪腦筋的人就有可能利用它投射的人像,破解人臉識別設備,從事犯罪活動。

        假設鄧麗君去世的1995年,有了人臉識別技術應用于銀行存取款用戶識別,那財迷心竅的人就會把鄧麗君的各種錄像帶信息復制加工成全息投影,選取需要的部分來攻破人臉識別系統,盜取鄧麗君的巨額遺產。

        PS做一張鄧麗君的圖片也花費一番功夫,更何況這是實景演播室!

        攝像機靠鄧麗君投影那么近也看不出什么不對。

        如此一來,那些明星大腕三天兩頭出現在電視屏幕中和影劇院屏幕中,留下了大量視頻素材,那他們的個人財產安全就有可能因為人臉識別的技術漏洞,而變得非常脆弱。

        雖然上述內容是假想,但是全息投影的技術現實給破解人臉識別技術,也許會帶來不可預知的挑戰,人臉識別技術的安全隱患和不可靠性值得進一步探討。

        視頻·易容術—— “Face2Face”直播換臉技術

        德國紐倫堡大學在2016年發表了一篇face2face的論文,從技術上已經實現了遠程用模擬他人人臉進行身份認證。也就是說,黑客根本不需要你的人臉生物特征數據,就可完成人臉進行身份認證。

        美國斯坦福大學的研究團隊也在當年研發出一款人臉跟蹤軟件Face2Face,它可以通過攝像頭捕捉用戶的動作和面部表情,然后使用Face2Face軟件驅動視頻中的目標人物做出一模一樣的動作和表情,效果極其逼真。研究人員分別模仿了布什、奧巴馬、特朗普、普京,筆者看后覺得細思極恐,毫無PS痕跡!

        由于其精準的捕捉效果和實時化能力,Face2Face在誕生之日起就引起了軒然大波。在其演示視頻下,無數網友質疑這項技術將成為網絡詐騙、綁架勒索的幫兇,質疑如果視頻電話的另一端,竟然不是你認識的那個人,那將會是多么恐怖的一件事。

        “假臉王”開源:新一代GAN攻破幾乎所有人臉識別系統

        還記得英偉達去年推出的StyleGAN嗎?全新的生成器架構讓這個“新一代GAN”生成的人臉真實到可怕。現在,StyleGAN已經開源,包括源代碼和官方TensorFlow實現,都附有詳細使用說明。

        以假亂真的精細人臉生成,令不少研究人員都驚呼:已經無法分辨虛擬和現實!

        上述人臉全部由計算機生成,StyleGAN的全新風格遷移生成器架構能控制發色、眼睛大小等臉部特征。

        之前,大多數研究都集中在如何提高“換臉”技術上,也就是如何讓計算機生成超逼真的人臉。

        誰料,這種技術發展的濫用造成了反效果,也即所謂的“DeepFake”。現在,DeepFake已被用于指代所有看起來或聽起來像真的一樣的假視頻或假音頻。

        去年底,Idiap 生物識別安全和隱私小組負責人、瑞士生物識別研究和測試中心主任 Sébastien Marcel 和他的同事、Idiap 研究所博士后 Pavel Korshunov 共同撰寫了論文,首次對人臉識別方法檢測 DeepFake 的效果進行了較為全面的測評。

      “AI假臉王”泛濫,人臉識別還安全嗎?

        他們經過一系列實驗發現,當前已有的先進人臉識別模型和檢測方法,在面對DeepFake時基本可以說是束手無策——性能最優的圖像分類模型 VGG 和基于 Facenet 的算法,分辨真假視頻錯誤率高達 95%;基于唇形的檢測方法,也基本檢測不出視頻中人物說話和口型是否一致。

        看到這幾條新聞,我們不禁要反思,人臉識別等高科技的應用是不是要認真考慮一下社會舒適度和個人有效保護隱私的內心需要。到底怎樣的身份識別能夠引領未來,這些林林總總的問題都需要每一個科技研發團隊、社會科學學者、法律人士認真思考。

        科技在發展的過程中,不可能是一片坦途,回顧科技發展史,尤其是充滿躁動的20世紀,兩次世界大戰前后的許多發明都是以井噴和“你方唱罷我登場”的速度演繹著科技發明的“進化論”,很難說誰永遠對,誰一時錯,但有一條基本的原則是不變的,那就是能夠推動人類社會進步,更好地維護人的權利和隱私,讓這個世界變得更美好,這樣的發明能夠走得更遠,發展得更好。



      關鍵詞: AI 人臉識別

      評論

      技術專區

      關閉
      新疆11选5 500