據(jù)外媒Techspot報(bào)道,人們可以使用許多方法來處理圖像和視頻,因此谷歌通過發(fā)布更易于發(fā)現(xiàn)篡改的在線內(nèi)容的工具來為最糟糕的情況做準(zhǔn)備。隨著2020年美國總統(tǒng)大選的臨近,科技巨頭們正在尋找不同的方式來對(duì)抗假新聞,錯(cuò)誤信息以及在大型社交和搜索平臺(tái)上傳播deepfakes視頻的情況。
以谷歌為例,它一直在準(zhǔn)備防御措施以應(yīng)對(duì)假新聞浪潮。但是,這家搜索巨頭希望通過其Jigsaw子公司采取更為主動(dòng)的方法,該方法使用最近發(fā)布的名為Assembler的平臺(tái)來幫助事實(shí)檢查人員和新聞?dòng)浾咴趫D像有機(jī)會(huì)在線傳播之前迅速對(duì)其進(jìn)行驗(yàn)證。
這些工具是免費(fèi)的,并且雖然公認(rèn)是“早期實(shí)驗(yàn)平臺(tái)”的一部分,但它們是一個(gè)很好的起點(diǎn),其中包括來自加州大學(xué)伯克利分校,那不勒斯菲里德里克第二大學(xué)和馬里蘭大學(xué)的學(xué)者的貢獻(xiàn)。
匯編程序的工作方式是將幾種機(jī)器學(xué)習(xí)算法組合在一起,這些算法擅長查找顏色和噪聲圖案,噪聲圖案中的不一致之處以及查看各種圖像
Assembler擅長檢測(cè)圖像中最常用的篡改技術(shù),例如播放亮度或復(fù)制和粘貼紋理或?qū)ο笠匝谏w某物或某人。它帶有一個(gè)分?jǐn)?shù),該分?jǐn)?shù)代表圖片可能被篡改或以任何其他方式更改的可能性,類似于Adobe的About Face AI。該項(xiàng)目的另一個(gè)目標(biāo)是微調(diào)可以發(fā)現(xiàn)使用StyleGAN創(chuàng)建的 deepfakes,StyleGAN是一種能夠產(chǎn)生令人信服的假想面孔的算法。
Jigsaw首席執(zhí)行官Jared Cohen在博客文章中解釋說,該公司“觀察到虛假信息以被用于操縱選舉,發(fā)動(dòng)戰(zhàn)爭(zhēng)和破壞公民社會(huì)的方式的發(fā)展。” 這種認(rèn)識(shí)導(dǎo)致決定開發(fā)用于阻止這些嘗試的技術(shù)。
在撰寫本文時(shí),Assembler具有七個(gè)不同的工具,記者和其他人可以使用它們來發(fā)現(xiàn)遭篡改的圖像。但是,Jigsaw研究者Santiago Andrigo和Andrew Gully告訴《紐約時(shí)報(bào)》,匯編程序不是靈丹妙藥,作為一個(gè)生態(tài)系統(tǒng),匯編程序需要隨著時(shí)間的推移快速發(fā)展和改進(jìn)。
這就是Jigsaw還發(fā)布了一個(gè)名為“ The Current”的網(wǎng)絡(luò)出版物的原因,該出版物將持續(xù)不斷地展示正在進(jìn)行的有關(guān)檢測(cè)錯(cuò)誤信息活動(dòng)的研究。Cohen表示:“我們的主要?jiǎng)訖C(jī)是創(chuàng)建一個(gè)場(chǎng)所,使人們可以訪問許多在處理此問題的第一線的專家,獨(dú)立研究人員和組織的工作。”
人們可以使用許多方法來處理圖像和視頻,因此谷歌通過發(fā)布更易于發(fā)現(xiàn)篡改的在線內(nèi)容的工具來為最糟糕的情況做準(zhǔn)備。隨著2020年美國總統(tǒng)大選的臨近,科技巨頭們正在尋找不同的方式來對(duì)抗假新聞,錯(cuò)誤信息以及在大型社交和搜索平臺(tái)上傳播deepfakes視頻的情況。
以谷歌為例,它一直在準(zhǔn)備防御措施以應(yīng)對(duì)假新聞浪潮。但是,這家搜索巨頭希望通過其Jigsaw子公司采取更為主動(dòng)的方法,該方法使用最近發(fā)布的名為Assembler的平臺(tái)來幫助事實(shí)檢查人員和新聞?dòng)浾咴趫D像有機(jī)會(huì)在線傳播之前迅速對(duì)其進(jìn)行驗(yàn)證。
這些工具是免費(fèi)的,并且雖然公認(rèn)是“早期實(shí)驗(yàn)平臺(tái)”的一部分,但它們是一個(gè)很好的起點(diǎn),其中包括來自加州大學(xué)伯克利分校,那不勒斯菲里德里克第二大學(xué)和馬里蘭大學(xué)的學(xué)者的貢獻(xiàn)。
匯編程序的工作方式是將幾種機(jī)器學(xué)習(xí)算法組合在一起,這些算法擅長查找顏色和噪聲圖案,噪聲圖案中的不一致之處以及查看各種圖像中像素的屬性。
Assembler擅長檢測(cè)圖像中最常用的篡改技術(shù),例如播放亮度或復(fù)制和粘貼紋理或?qū)ο笠匝谏w某物或某人。它帶有一個(gè)分?jǐn)?shù),該分?jǐn)?shù)代表圖片可能被篡改或以任何其他方式更改的可能性,類似于Adobe的About Face AI。該項(xiàng)目的另一個(gè)目標(biāo)是微調(diào)可以發(fā)現(xiàn)使用StyleGAN創(chuàng)建的 deepfakes,StyleGAN是一種能夠產(chǎn)生令人信服的假想面孔的算法。
Jigsaw首席執(zhí)行官Jared Cohen在博客文章中解釋說,該公司“觀察到虛假信息以被用于操縱選舉,發(fā)動(dòng)戰(zhàn)爭(zhēng)和破壞公民社會(huì)的方式的發(fā)展?!?這種認(rèn)識(shí)導(dǎo)致決定開發(fā)用于阻止這些嘗試的技術(shù)。
在撰寫本文時(shí),Assembler具有七個(gè)不同的工具,記者和其他人可以使用它們來發(fā)現(xiàn)遭篡改的圖像。但是,Jigsaw研究者Santiago Andrigo和Andrew Gully告訴《紐約時(shí)報(bào)》,匯編程序不是靈丹妙藥,作為一個(gè)生態(tài)系統(tǒng),匯編程序需要隨著時(shí)間的推移快速發(fā)展和改進(jìn)。
這就是Jigsaw還發(fā)布了一個(gè)名為“ The Current”的網(wǎng)絡(luò)出版物的原因,該出版物將持續(xù)不斷地展示正在進(jìn)行的有關(guān)檢測(cè)錯(cuò)誤信息活動(dòng)的研究。Cohen表示:“我們的主要?jiǎng)訖C(jī)是創(chuàng)建一個(gè)場(chǎng)所,使人們可以訪問許多在處理此問題的第一線的專家,獨(dú)立研究人員和組織的工作?!?/p>
據(jù)了解,Google的技術(shù)孵化器Jigsaw發(fā)布了一個(gè)名為Assembler的實(shí)驗(yàn)平臺(tái),以幫助記者和前線事實(shí)檢查人員快速驗(yàn)證圖像。
其匯編程序結(jié)合了學(xué)術(shù)界現(xiàn)有的幾種技術(shù)來檢測(cè)常見的操縱技術(shù),包括更改圖像亮度和將復(fù)制的像素粘貼到其他地方以掩蓋某些東西,同時(shí)保留相同的視覺紋理。它還包括一個(gè)檢測(cè)器,該檢測(cè)器可以發(fā)現(xiàn)使用StyleGAN創(chuàng)建的深層偽造品,StyleGAN是一種可以生成逼真的假想面孔的算法。這些檢測(cè)技術(shù)會(huì)輸入到主模型中,該模型會(huì)告訴用戶圖像被操縱的可能性有多大。
眾所周知,偽造圖像是更難驗(yàn)證的事情,尤其是隨著人工智能操縱的興起。隨著信息的傳播速度和規(guī)模的擴(kuò)大,新聞?dòng)浾吆褪聦?shí)檢查者作出反應(yīng)的機(jī)會(huì)窗口也在迅速縮小。
匯編程序是與受控媒體作斗爭(zhēng)的重要一步,但它并未涵蓋許多其他現(xiàn)有的操縱技術(shù),包括用于視頻的操縱技術(shù),隨著生態(tài)系統(tǒng)的不斷發(fā)展,團(tuán)隊(duì)需要對(duì)其進(jìn)行補(bǔ)充和更新。它仍然作為與通常分發(fā)篡改圖像的渠道分開的平臺(tái)而存在。專家建議,像Facebook和Google這樣的技術(shù)巨頭將這些類型的檢測(cè)功能直接整合到其平臺(tái)中。這樣,可以在上傳和共享照片和視頻時(shí)幾乎實(shí)時(shí)地執(zhí)行此類檢查。
也有其他方法可以考慮。例如,一些初創(chuàng)公司正在采用驗(yàn)證技術(shù),該技術(shù)可以在拍攝照片時(shí)記住照片中像素的位置,但這也帶來了挑戰(zhàn)。最終,技術(shù)修復(fù)還遠(yuǎn)遠(yuǎn)不夠。數(shù)字偽造最棘手的方面之一并不是偽造圖像本身。而是它們存在的想法,可以很容易地調(diào)用它們來質(zhì)疑真實(shí)媒體的準(zhǔn)確性。這是挑戰(zhàn)的類型,也將需要社會(huì)和政策解決方案。